Rijul Rajesh’s “Understanding Transformers Part 4: Introduction to Self‑Attention” kom í loftið 9. apríl og framlengir vinsælu seríu hans sem afhjúpar byggingaruppbyggingu á bak við nútíma stórt tungumálalíkön. Nýja færslan heldur áfram frá Part 3, þar sem Rajesh útskýrði hvernig orðafyllingar (word embeddings) og staðsetningarkóðar (positional encodings) sameina merkingu og röð, og kafar í sjálfathugunarmekanismann sem gerir transformerinu kleift að meta hvert tákn gegn öllum öðrum táknum í einu ferli.
Greinin brýtur niður stærðfræðina í bakgrunni fyrir spurningar‑, lykil‑ og gildistölur (query, key and value vectors), sýnir margþegið (multi‑head) athugun með kóðaútdráttum og sýnir hvernig aðgerðinni er hægt að stækka frá nokkrum táknum upp í milljarða sem eru unnin af viðskiptalegum stórum tungumálalíkönum (LLM). Með því að umbreyta abstraktum tenorsamverkum í hagnýtar dæmi gefur Rajesh forritara hagnýta innviði til að byggja eða fínstilla eigin líkan – ómetanlegur auðlind fyrir norðurlandssamfélag gervigreindar, þar sem sprotafyrirtæki og rannsóknarstofnanir taka fljótt í notkun lausnir byggðar á transformerum fyrir allt frá fjöltyngdum spjallmenum til loftslagsgagna‑greiningar.
Af hverju er þetta mikilvægt? Tvöfalt. Fyrst er sjálfathugun vélin sem knýr fram samhengi‑skilning og framleiðslugetu sem hefur gert gerandi gervigreind að almennum fjármagnsvörum; að skilja hana er núna forsenda fyrir hvern alvarlegan AI‑verkfræðing. Í öðru lagi birtist greinin á tímabili þar sem fjöldi fræðandi efna reynir að minnka kunnáttu‑göflunina sem hefur tafað innleiðingu nýjustu líkana í minni evrópskum mörkuðum. Skýra, kóða‑fyrsta nálgun Rajesh er í samræmi við nýlegar tæknilegar dýptar‑greiningar sem við höfum fjallað um, eins og
OpenAI hefur slökkt á £31 billi “Stargate UK” áætluninni og stöðvað áætlanir um að byggja risala AI‑útreikningsmiðstöð í Cobalt í Northumberland. Fyrirtækið tilnefndi hárvaxandi orkukostnað og sífellt óvissara reglugerðarumhverfi sem ákvörðunarþætti bak við dráttinn.
Aðgerðin lýkur áberandi samstarfi milli Bretlands og Bandaríkjanna sem átti að “flytja AI inn í efnahagslíf Bretlands”, skapa þúsundir hármenntaðra starfa og festa stað Bretlands sem evrópskt AI‑miðstöð. Fjárfestingin hefði verið stærsta einstaka erlenda AI‑ábyrgðin í sögu landsins, í samspili við $500 billi US “Stargate” útbreiðslu OpenAI. Hættunin dregur ekki aðeins úr efnahagslegum hvata í norður‑austurlöndum, heldur bendir einnig til þess að núverandi stefna og orkukerfi Bretlands geti verið óíhlýtt kröfum um háfjármögnun í nýjustu AI‑líkönum.
Eins og við skýrðum 9. apríl, hefur OpenAI einnig sett í bið sérstakt gagnaverkefna samning og breytt í notkunar‑miðað verðlag fyrir Codex API, sem undirstrikar víðtækari endurskoðun á evrópsku stefnu fyrirtækisins. Nýjasta drátturinn eykur áhyggjur um að Bretland gæti misst við umfram keppinauta eins og DeepMind í Evrópu og Bandaríkjunum, þar sem meira áreiðanlegar reglugerðarleiðir og ódýrari orka þegar laða að stórtæk AI‑innviða verkefni.
Það sem á eftir að fylgjast með: viðbrögð breska ríkisstjórnarinnar, þar á meðal hvort hún muni bjóða upp á markvissir styrkir, flýta fyrir AI‑leyfum eða endurskila skilmála samningsins. Geirðarfræðingar munu einnig fylgjast með hvort aðrir AI‑fyrirtæki komi til að fylla tómið, og hvernig atburðurinn hefur áhrif á komandi breska AI‑lög, sem gætu endurskapað jafnvægið milli nýsköpunarhvatna og hagsmunaverndar almennings. Útkoman mun móta þróun AI‑vistkerfisins í Bretlandi í mörg ár framundan.
OpenAI announced today that it is pausing the rollout of its “Stargate” artificial‑intelligence infrastructure project in the United Kingdom, citing soaring energy costs and an increasingly complex regulatory landscape. The decision halts construction of the high‑performance data centre that was slated to house the company’s next‑generation GPU clusters and to serve as a hub for European customers.
The move builds on the warning issued on 9 April, when OpenAI first put its UK data‑centre deal on hold over similar concerns. At the time, the company had already signalled that the £31 billion investment package it had pledged to the UK government could be jeopardised. By pausing Stargate, OpenAI is effectively scaling back its European compute ambitions until energy pricing stabilises and clearer guidance on AI‑related regulations emerges.
The pause matters for several reasons. The UK has positioned itself as a potential AI super‑power, banking on OpenAI’s presence to attract talent, spur local supply chains and justify public subsidies for renewable power. A delayed data centre threatens to slow the rollout of advanced AI services for British businesses and could dent confidence among other tech firms considering a European foothold. Moreover, the decision underscores how volatile energy markets are reshaping the economics of large‑scale AI training, a factor that may force other cloud providers to reassess similar projects.
What to watch next are the negotiations between OpenAI and the UK Department for Business and Trade over revised terms, and whether the company will relocate the Stargate build‑out to a lower‑cost jurisdiction. Analysts will also monitor the UK government’s response—potentially new incentives for green power or streamlined AI regulations—and the impact on the broader European AI infrastructure race. The next few weeks could determine whether the UK remains on the fast‑track to becoming an AI hub or watches the opportunity drift elsewhere.
OpenAI hefur lagt sitt af mörkum til Illinois-senatarlöggjafar 2155, tillögu sem myndi vernda þróunaraðila gervigreindar frá borgaralegri ábyrgð jafnvel þegar líkan þeirra er notað til að framkalla fjölda fórnarlamba eða milljarða dollara fjármagnstap. Fyrirtækið lagði fram vitnisburð fyrir dómstólnefnd Senatsdómara í ríkinu á þriðjudögum og hélt því fram að álagning strangrar ábyrgðar á AI‑labratoríur myndi
OpenAI‑forstjóri Sam Altman kynnti djarfan nýjan tekjumódel í “AI Utility” kynningu fyrirtækisins þann 9. apríl, þar sem hann setur framleiðslu greindar sem almenningsþjónustuvara sem verður reiknuð á sama hátt og vatn eða rafmagn. Áætlunin, sem er kölluð “Intelligence‑as‑a‑Utility”, mun gjalda notendum fyrir magn “hugrænnar breiddar” sem fyrirspurnir þeirra nota, mælt í nýrri einingu sem kallast “smart‑tokens”. Þó OpenAI sé þegar að græða peninga á ChatGPT í gegnum áskriftarlíkan og API‑notkun, færir nýja gagnnýtingarlíkanið fókusinn frá föstu gjaldi til greiðslu eftir greind, sem í raun breytir hverju svar, hverri tillögu eða kóðabrotinu í mælanlega þjónustu.
Altman heldur því fram að líkanið endurspegli vaxandi veruleika þess að AI‑aðstoðarmenn taka á sig minni‑ og rökvísið verkefni frá mannlegum heila. Nýlegar rannsóknir frá háskólum í Skandinavíu og Bandaríkjunum sýna að regluleg notkun á samtalsaðilum getur minnkað upplýsingalæsi og gagnrýna hugsun, þróun sem Altman viðurkennir í umfjöllun sinni. Með því að verðleggja “snjallheit” beint, vonast OpenAI til að endurgreiða risastórar reikniritkostnaðar við þjálfun sífellt stærri líkana, á sama tíma og hvatt er til skilvirkari spurninga.
Tilkynningin er mikilvæg því hún gæti umbreytt því hvernig einstaklingar, fyrirtæki og stjórnvöld setja fjárhagsáætlanir fyrir AI. Gjaldkerfi í gagnnýtingarstíl gæti aukið bilið milli tæknikunnuga notenda sem geta hámarkað notkun tákna og þeirra sem geta það ekki, og vekur áhyggjur um jafnan aðgang sem endurspegla AI‑lög EU‑ins og norðurlandaleg tillögur um alhliða AI‑aðgengi. Hún bendir einnig til stefnumótandi snúninga: í stað þess að keppa eingöngu um getu líkana, leggur OpenAI áherslu á stjórn á neysluslagi.
Fylgist með útgáfuáætluninni, sem Altman sagði að myndi hefjast með beta‑útgáfu fyrir fyrirtækja viðskiptavini í júní, og viðbrögðum frá eftirlitsaðilum og keppinautum eins og Google Gemini og Anthropic, sem gætu sett fram móttilboð eða lagt á sig kröfu um strangari verðgjafasýn. Næstu nokkur mánuðir munu sýna hvort “intelligence as a utility” verður ný staðlaður iðnaðarmáti eða flammabjalla í stefnumótunarríkinu.
Google‑Gemini líkanið hefur lengi byggt á SynthID, óútsýnilegu vatnsmerki sem merkir AI‑framleiddan texta og myndir til að hægt sé að greina þau með SynthIDDetector-verkfærinu sem var kynnt á Google I/O 2025. Sjálfstæð rannsóknarteymi tilkynnti að það hafi náð að endurhanna greiningarvélina, og lekti í ljós tölfræðilegu mynstur og tákn‑stigs vísbendingar sem greinirinn notar til að merkja sýndarefni.
Framfarirnar komu eftir að rannsakendurnir safnuðu stórum safni af útkomum frá Gemini, beittu opinberu greinirinu og gerðu síðan mismunadreifilegan greiningu til að einangra auðkenni vatnsmerkisins. Greinin, sem var sett á forprentaþjónustu, lýsir safni af skynjunaraðferðum sem geta bæði staðfest tilvist SynthID og, mikilvægast, bent á leiðir til að fjarlægja eða fela vatnsmerkið án þess að skerða gæði úttaksins. Höfundarnir leggja áherslu á að vinna þeirra er ætluð til að meta styrk vatnsmerkingar, ekki til að auðvelda illgæða misnotkun.
Af hverju þetta er mikilvægt er tvíþætt. Fyrst undar uppgötvunina kröfu Google um að SynthID bjóði óbreytanlegan upprunaskilaboð fyrir AI‑framleidd efni, sem er hornsteinn stefnu fyrirtækisins í baráttunni gegn rangfærslu og í að uppfylla nýrri lagalegri kröfur um rekjanleika. Í öðru lagi ýtir endurverkefnið á vaxandi vopnabaráttu: ef hægt er að gera vatnsmerkingu óvirka, geta vettvangar, auglýsenda- og stefnumótunaraðilar þurft að leita til annarra upprunaaðferða, svo sem dulritunarskilríkja eða þriðju aðila sannprófunarþjónusta.
Það sem á eftir að fylgjast með er líkleg viðbrögð Google—hvort fyrirtækið mun styrkja SynthID, koma með nýja útgáfu eða breyta yfir í annan upprunakerfi. Greindarfræðingar munu einnig fylgjast með hvernig aðrir AI‑þróunaraðilar, frá Meta til Anthropic, laga eigin vatnsmerkingar í ljósi niðurstaðna. Að lokum gætu stjórnvaldsstofnanir í ESB og Bandaríkjunum vísað í atburðinn þegar þær móta staðla um birtingu AI‑framleidds efnis, sem gæti flýtt fyrir þróun á sterkari, endurskoðanlegum lausnum til rekjanleika.
OpenAI tilkynnti á þriðjudaginn að það muni meðvitað draga úr útbreiðslu næstu kynslóða tungumálamódelanna, og vísa til áhættunnar á að tæknin gæti verið vopnað til að uppgötva hugbúnaðargalla í stórum mæli. Fyrirtækið sagði að
Anthropic tilkynnti tilvist Claude Mythos, AI‑líkan í forprófunarstigi sem er fær um að sjálfkrafa finna núll‑dagar veikleika í helstu stýrikerfum og vafrum. Fyrirtækið sagði að kerfið virki, en það verður ekki gefið út til almennings vegna þess að það hefur farið yfir öryggismörk sem Anthropic telur iðnaðinn sé enn ekki tilbúinn til að takast á við.
Útvarpið er skarpt brot frá nýlegri útgáfuáætlun Anthropic, sem hefur lagt áherslu á smávægilegar uppfærslur eins og Claude Opus 4.6 og stjórnað‑umhverfisramma. Mythos er lýst sem „framsækið“ líkan sem getur skannað kóða, netuppsetningar og keyrsluumhverfi án mannlegrar hvatningar, og framkallað nýtingarkeðjur sem hefðbundið myndu krefjast vikna af sérfræðistörfum. Í lekiðri innri minnismiða var verkfræðingar að varða að árangursprósentan líkanins við nýja veikleika er yfir 70 % – tala sem dregur úr 10 % forskriftinni sem reynsla Claude‑notenda sýndi í fjölskyldu um stjórnað umhverfi í fjölskyldu okkar 9. apríl.
Af hverju er þetta mikilvægt tvíþætt. Fyrst, getu til að sjálfvirkt finna nýtingar getur þjappað líftíma veikleika, gefið árásarmönnum öflugt nýtt vopn og neyðað varnarmenn til að endurhugsa tíðni öryggisuppfærslna. Í öðru lagi bendir ákvörðun Anthropic um að halda líkanið í leynd um vaxandi viðurkenningu á því að framfarir í gervigreind eru að yfirgnæfa stjórnunarramma, í samræmi við áhyggjur sem Atlants greining „Claude Mythos er vandamál allra“ vakti. Samtímasamstillt útgáfa Project Glasswing—varnarsamstarf sem felur í sér AWS, Apple, Cisco, Google og fleiri—bendir til þess að iðnaðurinn sé að móta samstillta viðbragð áður en tæknin fer í viðskiptalega notkun.
Það sem á eftir að fylgjast með eru hagnýtar aðgerðir Project Glasswing til að styrkja hugbúnaðar‑afurðarkeðjur og hvort stjórnvöld grípi inn í til að setja mörk á sjálfvirk nýtingartól. Næsta opinbera yfirlýsing Anthropic, líklega með áætlun um stjórnað ytri prófanir, verður lykilvísir um hversu hratt AI‑knúinn netvopna‑keppni þróast.
Þriggja vikna djúpkönnun af norrænu fintech-teymi hefur bent á uppruna flestar rangfærslur í Retrieval‑Augmented Generation (RAG) pípunum: í leitarlagi, ekki í sjálfu stórt tungumálalíkani (LLM). Verkfræðingarnir hófu með að skipta um spurningartexta, breyta hitastigstilltum og jafnvel skipta um undirliggjandi LLM, en rangar svör héldu áfram að birtast. Aðeins eftir að þeir gerðu nákvæma mælingu á vigur‑gagnasafninu, leitar‑víkkunarrökum og skjala‑raðningsmódelinu komust þeir að því að 80 % af gölluðum úttökum voru mynduð áður en LLM‑ið hafði séð neina spurningu.
Niðurstaðan endurspeglar febrúar‑leiðbeiningar sem viðvörðuðu um að “70 % af RAG-bila gerist áður en LLM‑ið er kallað,” og hún staðfestir kröfuna sem við gerðum 8. apríl: “leitin er raunverulegi líkanið” í RAG‑arkitektúr. IDC‑rannsókn, sem er vísað í í mars‑bloggi á Medium, áætlar að aðeins einn í tíu innlendum AI‑verkefnum nái yfir prófunarstig, og yfirráðandi GenAI‑leiðtogi hjá PIMCO staðfesti að sama 80 % bilatíðni gildi um fyrirtækja‑RAG‑innleiðingar. Rótarvörðurnar sem fintech‑teymið greindi eru meðal annars illa stilltir bútastærðir, úreltar ímyndanir (embeddings), ófullnægjandi síun á lýsigögnum og raðningsalgrímar sem birta óviðeigandi brot, sem öll gefa LLM‑inu villandi samhengi.
Af hverju er þetta mikilvægt? Tvöfalt. Fyrst eyða fyrirtæki milljörðum í RAG‑virkjanleg vörur sem lofaða uppfærðar, upprunalega rökstuddar svör; kerfisbundnar leitarvillur draga úr trausti og auka rekstrarkostnað. Í öðru lagi er vandamálið ekki einungis ein einstök villu, heldur kerfislegur hönnunarsviga sem getur magnfært aðra áhættu, svo sem “eitraðar vefsíðu” árásir sem fjallað var um 9. apríl.
Það sem á að fylgjast með næst eru nýrri sýnileikartól sem sýna leitarlatency, mikilvægi‑stig og uppruna í rauntíma, og næsta lota af uppfærslum frá skýjaþjónustuaðilum – Azure Cognitive Search’s “retrieval diagnostics” forsýning og AWS Kendra’s “ground‑truth feedback” eiginleiki eru áætlaðir til útgáfu seinna í þessu fjórðungi. Evrópskir iðnaðarsamtök eru einnig að setja upp leiðbeiningar um gagnagæði fyrir AI, sem gætu gert strangar leitarprófanir að lögfræðiskröfu. Fintech‑teymið hyggst birta ítarlegt eftirfylgiskýrsla, og aðferðafræðin gæti orðið de‑facto aðferðalista fyrir hvaða stofnun sem er sem ætlar að stækka RAG‑notkun utan rannsóknarstofunnar.
Anthropic tilkynnti kynningu á næstu kynslóðar‑líkaninu, Claude Mythos, og settist á sama tíma í gang “Project Glasswing”, alþjóðlegt samstarf milli atvinnugreina sem miðar að því að gera hugbúnað þolnari gegn árásum sem knýjað er af gervigreind. Samstarfið sameinar ský- og tækistórfyrirtæki – þar á meðal AWS, Apple, Google, Microsoft og fleiri en 45 aðra samstarfsaðila – til að innleiða Mythos Preview í varnarmálverkefni, leita að núll‑dagsgöllum og deila upplýsingum um lausnir um allan vistkerfið.
Claude Mythos er sett fram sem „framsækið“ líkan sem sameinar dýpt rökstuðnings nýjustu stórtungumálalíkana Anthropic með sértækum kóða‑greiningarhæfileikum. Samkvæmt innri prófum greindi kerfið þúsundir alvarlegra öryggisgalla í lykilinnviðum innviða sem hefðbundnir skannar sáu ekki. Með því að veita samstarfsaðilum snemma aðgang vonast Anthropic til að skapa endurgjöfarlúppu sem flýtir viðgerð áður en nýir árásarmynstur geta orðið til vopna.
Aðgerðin er mikilvæg vegna þess að sömu generative‑AI tækni sem knýr Mythos minnkar hindrunina fyrir að búa til flókið skaðlegan hugbúnað. Öryggissérfræðingar hafa varað við því að sjálfvirk útbúa nýrra árásarmynstra gæti náð mannlegri færni innan nokkurra ára, eins og var bent á í fyrri greiningu Anthropic, “Claude Mythos: The Future of Autonomous Exploits” (10. apríl). Project Glasswing er því bæði varnarmálakvarði og merki um að AI‑samfélagið taki nýja netöryggisáhættu alvarlega.
Það sem á eftir að fylgjast með er útbreiðsla Mythos Preview í umhverfi samstarfsaðila og fyrstu opinberu opinberingar um galla sem kerfið uppgötvar. Greiningaraðilar munu einnig fylgjast með hvort Anthropic opni aðganginn út fyrir stofnandi samstarfsaðila, hvernig stjórnvöld bregðast við samstilltum AI‑öryggisátökum, og hvort keppinautar þrói samkeppnishæf “AI‑first” varnarlíkön. Jafnvægið milli þess að styrkja stafræna grunninn og koma í veg fyrir misnotkun tækninnar mun móta næsta kafla AI‑studdra netöryggis.
OpenAI hefur sett í gang nýtt “ChatGPT Pro” áskriftarstig á $100 á mánuði sem eykur aðgengi að Codex forritunaraðstoðarmanninum fimmfalt miðað við núverandi $20 Plus-áætlun. Uppfæringin, sem var tilkynnt á mánudaginn og útfærð af TechCrunch og CNBC, beinist að þróunaraðilum og öflugum notendum sem keyra lengri, reikniverkfræðilega krefjandi forritunartímabil. Á meðan $200 Pro-stigið er enn í boði fyrir kröftugustu vinnuálag, fyllir miðlungsstigin bilið milli hagkvæmra Plus-áætlunarinnar og hágæða stigsins, og setur persónuleg notkunarsvæði OpenAI í samkeppni við langtímastöðu Anthropic $100 Claude áskriftina.
Aðgerðinni er mikilvæg vegna þess að Codex, sérsniðið stórt tungumálamódel OpenAI fyrir kóðagenerun, hefur orðið lykilverkfæri til framleiðni fyrir hugbúnaðarverkfræðinga, gagnavísindamenn og lágtkóða vettvang. Með því að auka kvóta á verðstigi sem margir sjálfstæðir verktakar og litlir hópar geta ráðið, vonast OpenAI til að ná til hluta markaðarins sem hingað til hefur snúist að Anthropic eða opnum kóða lausnum. Verðbreytingin bendir einnig til víðtækari stefnu um að gera hágæða AI eiginleika að tekjum, ekki aðeins í almennu spjalli, og endurspeglar nýlegan fjölbreytileika í áskriftarstigum fyrirtækisins og vilja til að prófa stigvelda aðgang eftir að hafa sett á hlið £31 billiún UK fjárfestingarpakka í byrjun þessa mánaðar.
Hvað á að fylgjast með næst: greiningaraðilar munu fylgjast með notkunarmælum fyrir $100 stigið og hvort það skemmir $200 stigið eða laðar að nýja notendur frá samkeppnisaðilum. Næsta verðlagningarbreyting OpenAI gæti komið þegar það fínstillir notkunarmörk fyrir önnur sérsniðin módel, eins og komandi agentic‑RAG verkfærin sem fjallað var um 10. apríl. Að auki gætu allar breytingar á undirliggjandi innviða kostnaði—sérstaklega í ljósi nýlegrar hægðar á UK gagnaveri—leitt til frekari aðlögunar á áskriftarverðunum.
Kennsluefni sem var sett á japanska þróunarfélagið Yayafa í gær leiðir lesendur í gegnum uppsetningu Anthropic‑forritsviðbótarins Claude Code í Visual Studio Code og keyrslu sýnishornsforrits á staðbundnum tölvu. Handbókin, sem er samskrifað af starfandi hugbúnaðarverkfræðingi, sýnir skref fyrir skref hvernig á að stilla viðbótina, búa til nauðsynlega skrá .claude‑credentials.json og ræsa AI‑kóðunarhjálpinn sem er innbyggður í IDE‑ið án þess að sýna API‑lykilinn í spjallgluggum – aðferð sem höfundurinn ávarpar af öryggis- og samræmisástæðum.
Claude Code, svar Anthropic við GitHub Copilot, fór í opinbera beta seint á árinu 2024 og hefur fljótt orðið ákjósanlegasti hjálparmaður fyrir teymi sem leggja áherslu á „stefnu‑AI“ (constitutional AI) öryggisráðstafanir. Með því að fella líkanið beint inn í VS Code geta þróunaraðilar beint í ritlinunni beðið um kóðaútdrátt, endurskipulagningu eða prófagerð, á meðan viðbótin virðir tungumálastillingar notandans og býður upp á sýnishorn af mismun (diff) breytinga. Kennsluefnið sýnir einnig hvernig á að tengja Claude Code við Firebase til fljótlegrar frumgerðar, sem endurspeglar víðtækt ferli AI‑knúinnar full‑stack þróunar.
Frásögnin er mikilvæg vegna þess að hún lækkar hindrunina fyrir norræna forritara til að taka upp persónuverndar‑fyrsta kóðunarhjálp sem keyrir staðbundið, og minnkar þar með áreiðanleika á skýjaþjónustum sem geta stangist á við GDPR eða fyrirtækjareglur um gagnaumsjón. Öryggis‑miðaðar leiðbeiningar – sérstaklega áminningin um að líma ekki API‑lykla í samtalsfyrirspurnir – varpa ljósi á vaxandi vitund um áhættu tengda leki á auðkennum, sem hefur plaggað fyrri útgáfur AI‑hjálpara.
Á næstu árum hyggst Anthropic koma með Claude 3.5 með bættum samhengi (context windows) og nánari samþættingu við Azure OpenAI, sem gæti enn frekar minnkað markaðshlutdeild Copilot. Áhorfendur munu fylgjast með hvort VS Code‑markaðurinn sjái aukna fjölda Claude‑tengdra viðbóta, hvernig fyrirtækja‑IT deildir bregðast við staðbundnu keyrslu‑líkaninu, og hvort reglugerðarstofnanir gefi út leiðbeiningar um uppruna AI‑framleidds kóða. Vinsæld kennsluefnisins gæti merkt upphaf víðtækari umbylgju í átt að AI‑kóðunarverkfærum á staðnum í norrænu tæknilífi.
SoftBank’s Cloud Technology Blog kynnti nýja “Agentic RAG” rammaverkefnið sem lofar að yfirstíga helstu takmarkanir hefðbundins Retrieval‑Augmented Generation. Tilkynningin lýsir sameiginlegu verkefni milli SoftBank og bandaríska sprotafyrirtækisins Archaea AI til að kommersialísera Agentic RAG‑knúna þekkingarvettvanginn “Krugle Biblio” í Japan, og setur hann fram sem fyrsta lausn á innfæddu tungumáli, með áherslu á umboðsmenn, fyrir fyrirtækjaleit og -framleiðslu.
Hefðbundnar RAG‑pípur tengja fastan leitarvél við stórt tungumálalíkani, en þær glíma enn við úreltar vísar, rangar (hallúcin) niðurstöður og ófærni til að samræma fjölskrefa rökstuðning. Agentic RAG bætir við sjálfstæðan “umboðsmannalags” sem getur skipulagt leitarstefnur, metið áreiðanleika heimilda og ítrekað fínstillt spurningar byggt á sjálfsskoðun. Bloggið vísar í innri prófanir þar sem kerfið minnkaði staðreyndavillur um um 40 % og skammdi svartíman frá fyrirspurn til niðurstöðu um helming miðað við eigið Vertex AI RAGEngine frá SoftBank.
Þessi þróun er mikilvæg vegna þess að hún brýr bilið milli handahófskennds spjallviðmóts og framleiðslugetailegs þekkingarvinnslu. Fyrirtæki sem hafa verið var við LLM‑hallúcin geta nú innbyggt sjálfprófanakerfi sem dregur sjálfkrafa nýjustu skjöl, beitir sértækum stefnum og jafnvel kallar á ytri verkfæri eins og reiknivél eða kóðatúlkun. Fyrir norðurlandafyrirtæki sem glíma við ströngar reglur um gagnasjálfstæði gæti staðbundið, umboðsmannastýrt RAG orðið raunhæft val í stað skýja‑aðeins lausna.
Áframhaldandi þróun: SoftBank hyggst hefja tilraunarpílu með nokkrum japönskum fjármálastofnunum í þriðja fjórðungi, á meðan betaútgáfa fyrir evrópska samstarfsaðila er áætluð í byrjun 2027. Greiningaraðilar munu fylgjast með frammistöðumat á móti Google‑RAGEngine og notkun Krugle API í norðurlands AI‑markaðinum. Útgáfan mun einnig prófa hvernig sjálfsskoðunarkerfið skalar þegar umboðsmenn vinna með fjölbreytt, fjöltyngt efni – lykiláskorun fyrir víðtækari innleiðingu.
DXC Technology hefur kynnt Assure Smart Apps, nýtt safn af AI‑drifnum, vinnuferli‑miðaðum forritum sem miða að því að flýta fyrir stafrænum umbreytingum hjá eignasjóð- og líftryggingafyrirtækjum. Forritin voru kynnt á DXC Connect Insurance Executive Forum og innihalda Claims Assistant, Engagement Assistant og Underwriter Assistant, öll byggð á ServiceNow‑agent AI‑vél og djúpri þekkingu DXC á tryggingageiranum. Forstilltuð einingar lofa að sjálfvirknivæða dagleg verk, minnka handvirkt vinnuálag um 30‑40 % og skila mælanlegum árangri innan 12 vika, án þess að krefjast umfangsmikillar útskiptunar á eldri kjarnakerfum.
Tilkynningin kemur á tímum þar sem tryggingafyrirtæki glíma við aukna þrýsting til að nútímabæta, draga úr kostnaði og uppfylla vaxandi væntingar viðskiptavina um tafarlausa, persónulega þjónustu. Þó að AI‑innleiðing hafi flýtt upp, eru mörg fyrirtæki enn takmörkuð af sundurlausum eldri kerfum og skorti á innanhússþekkingu til að byggja sérsniðnar lausnir. Með því að bjóða upp á mótuleg, niðurstöðu‑miðað forrit sem tengjast núverandi umhverfi, stefnir DXC að því að lækka hindrunina fyrir innleiðingu og gera fyrirtækjum kleift að stækka AI‑verkefni hratt og öruggt.
Greiningaraðilar munu fylgjast með hversu fljótt helstu tryggingafyrirtæki prófa nýju verkfærin og hvort lofaður hraði til virðingar verði raunverulegur. Fyrstu tilvikin gætu sýnt áhrif á nákvæmni í undirritun, tíma til lausnar kröfugerða og hlutfall kross‑sölu, en einnig varpa ljósi á möguleg starfsmannabreytingar þegar dagleg ferli verða sjálfvirk. Samkeppni frá öðrum tæknifyrirtækjum – sérstaklega Microsoft Cloud for Insurance og Salesforce Financial Services Cloud – mun auka þrýsting, og því verða innleiðingarmælikvarðar lykilmælir á markaðsáhrif DXC.
Næstu nokkur mánuðir ættu að færa tilkynningar um niðurstöður tilrauna, samþættingarleiðir með breiðari AI‑portfólíó ServiceNow og hugsanlega reglugerðarathugasemdir um notkun agent AI í mikilvægu tryggingartökuákvörðunum. Þessir þættir munu móta hvort Assure Smart Apps verði hvati til iðnaðarvíðrar AI‑hröðunar eða bara sértækt tilboð í fjölbreyttum markaði.
Rannsóknarteymi frá japanska sprotafyrirtækinu Asty hefur gefið út ítarlega greiningu á „sjálf‑þróun“ AI umboðsmönnum, þar sem sýnt er hvernig stöðug samskipti við notendur geta gert sama líkanið smám saman klárara án ytri endurþjálfunar. Greinin, sem kom út 10. apríl, brýtur niður arkitektúrinn á bak við frumgerðir eins og Gemma‑4, GEPA og HermesAgent, sem öll keyra staðbundið og uppfæra innri þyngdir sínar í gegnum blöndu af styrkleikarnámi frá mannlegum endurgjöf (RLHF) og meta‑námi á tækinu. Með því að geyma samskiptaskrá í öruggu sandkassa, framleiða umboðsmenn smáuppfærslur sem eru sameinaðar í grunnlíkan á hverju kvöldi, sem gerir þeim kleift að fínstilla tungumálaskilning, rökstuðning við vörumat og jafnvel myndaleitarfærni í rauntíma.
Af hverju þetta skiptir máli er tvíþætt. Fyrst og fremst lofar aðferðin nýjum bylgju „umboðsmann“ forrita sem geta persónulegsett sig í rauntíma á meðan gögn eru haldin undir stjórn notandans – bein viðbragð við persónuverndarvandamálum sem hafa hælt innleiðingu skýja‑AI þjónustu. Í öðru lagi lækkar tækni hindrunina fyrir smærri fyrirtæki til að setja upp flókin hjálparforrit, sem gæti umbreytt netverslun, þjónustu við viðskiptavini og sköpunartólum. Niðurstöðurnar endurspegla þróunina sem við bentum á í síðustu viku: Meta’s Muse Spark líkanið, sem getur borið saman vörur úr myndum, og ZETA’s innleiðing á OpenAI’s ChatGPT í verslunarpallinn, byggja bæði á fljótu, notenda‑drifinni fínstillingu. Skýja‑AI tekjur Amazonar eru í sögu og Linux Foundation’s Agentic AI Foundation sýna enn frekar hvernig iðnaður stefnir að stöðugum námsumboðsmönnum.
Það sem á eftir að fylgjast með eru hagnýtar útfærslur sem eru áætlaðar í sumar. Asty hyggst gefa út opinn SDK sem leyfir þróunaraðilum að tengja sjálf‑þróunarkjarna við núverandi spjall‑ og vörumatakerfi. Agentic AI Foundation er áætlað að birta drög að staðlum um örugga uppfærslu‑mekanískar, og bæði Meta og ZETA hafa bent á beta‑prógram sem mun prófa þessa umboðsmenn í lifandi smásöluumhverfi. Næstu mánuðir munu sýna hvort sjálf‑þróunarmiðuð umboðsmenn geti uppfyllt loforð sín án þess að fórna öryggi eða stöðugleika.
Samstillt upplýsingasvindlunarherferð sem knúin er af gervigreind réðist á milljónir snjallsíma um Evrópu á þriðjudaginn og leiddi til þess að forsætisráðherra Svíþjóðar krafðist svara frá stærstu leikmönnum greinarinnar. Aðgerðin, sem rekst á net af ýttu‑tilkynningum og raddaðstoðarspurningum, birti rangar yfirlýsingar um væntanlega skattaumbót, en breytti síðan yfir í uppfinnað heilbrigðisráð. Rannsóknir óháðra öryggisfræðinga tengdu framleiðslu efnisins við stórtæka tungumálalíkön sem eru í umsjá Google, Meta, Anthropic og OpenAI, á meðan dreifingar‑innviðir byggðu á farsíma‑auglýsingakerfum þessara fyrirtækja.
Atvikið er fyrsta sinn sem sameinaða úttak heimsins leiðandi generative‑AI veita er notað í vopn á persónulegum tækjum, umhverfis hefðbundna fjölmiðla og nýtt traust notenda á innbyggðum símatilkynningum. „Samfélag þar sem tækniólígarki getur gripið inn í, eins og einn gerði í gær, í farsíma milljóna borgara til að segja þeim lygi?“ spurði forsætisráðherrann í þingræðu, og endurspeglaði vaxandi áhyggjur almennings yfir óstýrtum áhrifum gervigreindar.
Af hverju er þetta mikilvægt? Tvöfalt. Fyrst sýnir það hvernig samdráttur AI‑tölvuafls og hæfileika í fáum stórum fyrirtækjum getur umbreytt í raunverulegt „upplýsingavopn“ sem starfar án nokkurs gagnsæis eða eftirlits. Í öðru lagi varpar atvikið ljósi á reglugerðarblindgóma: núverandi persónuverndar‑ og kosningarsamhæfni‑lög umfatta ekki AI‑framleitt efni sem er sent í gegnum eigendomsforritasölu og tilkynningaraðila, og skilur þannig borgara eftir í viðkvæmu ástandi gagnvart svikum í tengiliðapunkti.
Það sem á eftir að fylgjast með eru stefnumótun og markaðsviðbrögð. Evrópusambandið hefur merkt um flýtt innleiðingu AI‑löganna, með sérstaka áherslu á „há‑áhættutækni“ í generative kerfum. Í Bandaríkjunum er Federal Trade Commission að opna keppnisskýrslu um samvinnu í notkun AI‑framleiddra auglýsinga. Á sama tíma sjá dreifðar vefsvæði eins og Mastodon mikinn fjölda nýrra notenda sem leita að valkostum við fyrirtækjastýrða vistkerfið. Næstu vikur munu sýna hvort löggjafar geti sett raunveruleg takmörk áður en næsta „skítugur sýning“ tækninnar fer í gang.
OpenAI hefur sett “Stargate UK” gagnaverkefnið í bið, og bendir á hár rafmagnsverð og óvissa í reglugerðarumhverfi í Bretlandi. Þetta skref fylgir fyrri ákvörðun fyrirtækisins um að draga úr áætluðu háskólarekninu í Abilene, Texas, og er nýjasta hindrunin í þeim metnaðarfulla AI‑innviðaátaki sem var kynnt í september í samstarfi við Nvidia og gagnaverþróunarfyrirtækið Nscale.
Eins og við skýrðum 10. apríl, lagði OpenAI í bið við byggingu í Bretlandi eftir að orkukostnaður sýndi sig hærri en áætlað var. Nýjasta yfirlýsingin bætir við því að fyrirtækið mun halda áfram viðræðum við stjórnvöld í London til að leita skýrari stefnumótunarleiðbeininga og mögulegra hvata. Tæknstjóri OpenAI sagði að biðin sé „tímabundin“ og að fyrirtækið sé enn skuldbundið við tilvist í Bretlandi, en mun ekki halda áfram fyrr en orkugjaldakerfið og reglur um gagnavernd eru stöðugir.
Ákvörðunin hefur áhrif á mörg svið. Bretland hefur sett sig fram sem evrópskt miðstöð fyrir AI‑rannsóknir og vonar að stórt reikniverkefni laði að sér hæfileikaríkt fólk, styrki innlend tæknifyrirtæki og tryggi gagnasjálfstæði. Stöðvun á þessu lykilverkefni ógnaðir þessar áætlanir og gæti gefið samkeppnisaðilum eins og Microsoft Azure eða Google Cloud forskot á svæðinu. Fyrir OpenAI dregur biðin fram vaxandi spennu milli hraðrar stækkunar líkana og sjálfbærni undirstöðu reikniverkefna, þema sem kemur einnig fram í nýlegum takmörkunum á útgáfum nýrra líkana vegna öryggisáhrifa í netöryggi.
Það sem skal fylgjast með næst eru niðurstöður viðræðna við bresk stjórnvöld. Endurbætt orkuskattakerfi eða markvissir styrkir gætu endurlifað verkefnið, á meðan langvarandi óvissa gæti ýtt OpenAI til að flytja getu til kostnaðarstöðugri staða í Evrópu eða norrænum löndum. Samhliða þróun – sérstaklega breytilegar áskriftarleiðir fyrirtækisins fyrir þunga notkun Codex-þjónustu – mun einnig gefa vísbendingu um hvernig OpenAI jafnar vöxt við rekstrarleg takmörk.
OpenAI hefur sett í gang nýja $100‑á‑mánuði “ChatGPT Pro” áskrift sem beinist að þróunaraðilum sem treysta á Vibe‑kóðunarhjálparann, sem er knúinn af Codex. Áætlunin eykur notkunarmörk Codex fimmfalt miðað við $20‑á‑mánuði Plus áskriftina, og gerir “Vibe‑kóðendum” kleift að keyra lengri, meira kröfuharða lotur án þess að lenda í þeim takmörkunum sem hafa ýtt mörgum til að færa sig niður í lægri áskrift eða skipta um verkfæri.
Aðgerðin kemur í kjölfar fyrri tilkynningar OpenAI þann 10. apríl um að það myndi kynna dýrari áskrift fyrir þunga Codex‑notendur. Eins og við skýrðum þann dag, fyllir $100‑áætlunin verðbil á milli almennrar Plus‑tilboðsins og $200‑á‑mánuði “ChatGPT Pro” áskriftarinnar sem beinist að fyrirtækjastærum vinnsluálögum. Með því að auka miðlungsáskriftina vonast OpenAI til að ná til vaxandi hóps atvinnuþróunaraðila sem þurfa stöðuga AI‑aðstoð við flókin kóðasöfn, á sama tíma og þjónustan er haldin nógu hagkvæm til að keppa við keppinauta eins og GitHub Copilot og Google Gemini.
Mikilvægið fer framhjá tekjum. Hærri notkunarmörk geta flýtt fyrir innleiðingu AI‑aðstoðrar þróunar, mögulega ummyndandi vinnuferla í hugbúnaðarverkfræði um allt norræna svæðið og víðar. Á sama tíma gæti stigveldisverðlagning vakið athygli yfirvalda sem fylgjast með markaðsafli AI, sérstaklega þar sem OpenAI stendur frammi fyrir rannsóknum í Bandaríkjunum varðandi öryggi og ábyrgð.
Hvað á að fylgjast með næst: Fyrstu tölur um notkun munu sýna hvort $100‑áskriftin nær að brúa bilið milli áhugamanna og fyrirtækja, og hvort hún dregur úr fráfalli frá Plus‑áætluninni. Greiningaraðilar munu einnig vera spenntir að sjá hvort OpenAI fínstillir verðlagninguna enn frekar eða bætir við fleiri þróunaraðila‑miðuðum eiginleikum, og hvernig keppinautar bregðast við á markaði sem er í hraðri þróun í átt að AI‑drifiðri kóðunarhjálp.
Ríkislögmaður Flórída tilkynnti þriðjudaginn að ríkið muni hefja formlega rannsókn á OpenAI, fyrirtækinu í San Francisco sem er ábyrgðarmaður ChatGPT, vegna umdeildrar áhættu sem spjallforritið hefur á börn. Rannsóknin, sem er lögð fram samkvæmt lögum um neytendavernd í ríkinu, vísar í áhyggjur af því að ófiltrað efni módel
Þróunarteymi frá Norður-evrópu hefur kynnt fullkomlega starfandi kriptaviðskiptagerð sem sameinar Anthropic‑kerfið Claude við tólf TensorFlow‑líkön, og býður upp á náttúrulegan tungumálaviðmót sem getur framkvæmt viðskipti á millisekúndum. Kerfið, sem er lýst í nýrri opnum hugbúnaðarvörslu, setur Claude í hlutverk hárstigs rökfræðiverkefnis meðan TensorFlow‑líkönin sjá um verðspá, tilfinningagreiningu, sveiflupörkun, greining á bókum pöntunar, áhættumat og hagræðingu framkvæmdarstefnu. Notendur slá inn skipanir eins og „Kauptu 0,5 BTC ef markaðsbreið tilfinning breytist í jákvæða innan næstu fimm mínútna“, og Claude umbreytir ásetningnum í samstilltar kallanir á undirlíkönin, sem síðan senda inn pantanir til fjölda viðskiptabanka í gegnum lágt seinkunargátt.
Upphaflegur bakprófun á Bitcoin‑ og Ethereum‑gögnum frá síðustu tólf mánuðum sýnir meðaltals‑Sharpe‑stuðul 2,1 og nettó hagnaður‑til‑tap hlutfall 3,4 : 1, sem er um það bil 27 % betra en viðmiðunaráætlað reiknirit. Lifandi prófun með lítilli fjárfestingu upp á 10 000 $ yfir tveggja vikna tímabil skilaði 38 % ávöxtun, með viðskiptaframkvæmdartímanum stöðugt undir 150 ms. Þróunaraðilarnir þakka Claude’s Model Context Protocol fyrir að tengja saman ólík líkön án sérsniðins límíkóða, mynstur sem þeir sýndu fyrst í „Claude Mythos“ seríunni sem við fjölluðum þann 10. apríl.
Útgáfan er mikilvæg því hún sýnir að stór tungumálalíkön geta virkað sem áreiðanleg stjórnunarlag fyrir fjármálatengd sjálfvirkni í háu áhættustigi, og lækka hindrunina fyrir óteknilega viðskiptamenn til að nýta flókin AI‑pípur. Hún vekur einnig spurningar um sanngirni markaðarins, eftirlitsreglur og öryggi AI‑stýrðra viðskiptabóta sem gætu magnað flass‑hrunið.
Væntanlegar vísbendingar um innleiðingu frá áhættufélögum og smásöluveitum, möguleg athugun frá fjármálareftirliti í ESB og Bandaríkjunum, og næstu útgáfur Claude frá Anthropic sem gætu dýpkað samþættingu við TensorFlow og önnur vélarnámsumhverfi. Opinn kóðinn mun líklega verða viðmiðunarpunktur fyrir framtíðar AI‑knúna viðskiptaarkitektúr.
Fimm leiðandi stórt tungumálamódel (LLM) keppðu í Texas Hold’em mótinu í síðustu viku, þar sem Claude Opus frá Anthropic var úti í fyrstu umferðinni og xAI Grok frá Elon Musk varð sigurvegari. Keppnin, sem var skipulögð af AI‑spilalabborinu „Strategic Minds“, settist Opus, Grok 4, Google‑módelið Gemini 2.5 Pro, OpenAI‑GPT‑5 og Anthropic‑Claude Sonnet 4.5 í röð af 1.000‑handar leikum á opinberum pókervél. Hvert módel fékk sömu handa‑söguupplýsingar og var beðið um að skila ákvörðun um veðmál, hækkun eða fjárhæð, sem vélin framkvæmdi síðan.
Tilraunin var meira en bara kynningaratriði. Með því að neyða LLM‑in til að taka rauntíma, hár‑áhættuaðgerðir undir ófullkomnum upplýsingum, sýndi prófið hversu vel núverandi spurningarstílar umbreyta í stefnumótun. Snemma útrýming Opus bentir á varanleg veikleika í áhættumat, á meðan stöðugur árásargirni Grok og rétt tímasettir blúffar sýna þróaða hæfni til að líkja eftir andstæðingahegðun – færni sem hefur verið fínstillt með nýlegum endurgjöf‑í‑þjálfun frá mannlegri endurgjöf (RLHF) hjá xAI.
Af hverju þetta skiptir máli er tvíþætt. Fyrst er póker viðmiðunarpunktur fyrir gervigreind almenna (AGI) vegna þess að hann sameinar líkindafræði, sálfræði og langtímaáætlanir; skýr sigur Grok bendir til þess að LLM‑in séu að minnka bilið milli tungumálakunnáttu og ákvörðunarhæfni. Í öðru lagi gætu niðurstöðurnar flýtt fyrir innleiðingu AI‑aðstoðarmanna í fjármálum, viðræðum og leikjum, þar sem nákvæm áhættumat er lykilatriði. Á sama tíma vakti mótinn öryggisspurningar: ef LLM‑in geta blúffað sannfærandi, gætu þau verið misnotuð í svikum eða markaðsmanipúlun nema sterkar varnir verði settar á.
Það sem á eftir að fylgjast með er eftirfylgimót sem áætlað er í júní og mun bæta við fjöl‑aðila endurgjöf‑í‑þjálfunarlagskikt, sem gerir módelunum kleift að aðlaga stefnu sína milli handa. Atvinnugreindaráhugamenn munu einnig fylgjast með næstu uppfærslum OpenAI‑GPT‑5 og næstu útgáfu Opus frá Anthropic, sem báðar lofaða nánari samþættingu stefnumótunar. Að lokum er væntanlegt að stjórnvöld gefi út leiðbeiningar um AI‑drifna spilavítunarforrit, skref sem gæti mótað hvernig þessi módel verða kommersialiseruð utan rannsóknarstofunnar.
Forritari birti á samfélagsmiðlum að það að lesa “vibe‑kóðað” skrift í fyrsta sinn gerði hann að gráta, og lýsti kóðanum sem klúnalegri, næstum illviljaðri tilraun til að líkja eftir fegurð. Skriftið, sem var framleitt af AI‑stýrðu no‑code vettvangi, fékk hrós fyrir hraða en var gagnrýnt fyrir orðasöm, pedantísk uppbygging sem bauð lítið raunverulegt virkniverð. Þetta útbragð hefur kveikt nýja umræða um vaxandi áreynslu á “vibe coding” — hugtak sem var sett á til að lýsa AI‑hjálpaðri draga‑og‑sleppa þróun sem lofar að gera óforritendum kleift að framleiða hugbúnað án þess að skrifa hefðbundinn kóða.
Viðbrögðin skipta máli vegna þess að þau draga fram spennu sem hefur byggst síðan OpenAI kynnti $100‑á‑mánuði ChatGPT áskriftarþrepið sem var ætlað þungum Codex notendum. Eins og við skýrðum 10. apríl, var þetta þrep markaðssett sem leið til að opna upp í öflugri kóðagenereringar eiginleika, og þar með fjármagna þau “vibe‑coding” vinnuferli sem nú eru í brennidepli. Gagnrýnendur halda því fram að tæknin sé notuð á rangan hátt: öflug tungumálalíkön eru eytt í að framleiða víðfeðmar, lágkvaliteta skriftur sem forritarar þurfa enn að endurskapa, sem eykur kostnað og seinkar verkefni. Atvinnugreindarathugendur benda á yfirtöku Base44 árið 2025 — átta manns nýsköpunarfyrirtæki sem var frumkvöðull í no‑code kóðun — sem vararathugun um ofbeldi markaðsáherslna yfir raunverulegan gildi.
Það sem á eftir að fylgjast með er hvernig hugbúnaðarumhverfið og AI‑söluaðilar bregðast við. Við getum vænt um að OpenAI og samkeppnisaðilar fínstilli API‑in sín fyrir kóðagenereringu, mögulega með því að innleiða gæðamælikvarða eða nánari samþættingu við hefðbundin IDE til að draga úr sóun. Á sama tíma gætu forritunarfélög og opinn‑kóða verkefni safnast um bestu verklagsreglur fyrir AI‑hjálpaða kóðun, á meðan fjárfestar gætu endurskoðað fjármögnun hreinna “vibe‑coding” sprotafyrirtækja. Næstu vikur munu sýna hvort tilfinningaleg viðbrögð breytist í raunveruleg staðla eða hvort þau næi aðeins til að knýja enn eitt umferð á hype.
Nýtt arXiv‑pappír, “Your Agent Is Mine: Measuring Malicious Intermediary Attacks on the LLM Supply Chain” (arXiv 2604.08407), kvantar hvernig AI‑aðilar geta orðið bakdyr fyrir árásarmenn sem stjórna útreikningsþjónustunni eða einhverjum beini sem miðlar köllum til stórra tungumálalíkana. Höfundarnir sýna að þegar aðili er settur í gang, fær þjónustan í raun aðgang á skeljarstigi að hýsilferlinu, sem gerir illgjarnan kóða sem felst í sýnilega harmlögu “færni” kleift að keyra án þess að virkja núverandi öryggisífiltra.
Rannsóknin byggir á nýlegum raunverulegum atburðum sem hafa skakað traustið á AI‑verkfærakerfinu. Fyrir tveimur vikum fannst vinsæla liteLLM‑gáttin innihalda bakdyr í útgáfum 1.82.7 og 1.82.8, þar sem skýjaheimildir og Kubernetes‑leyndarmál voru stolið eftir að ógnvekjandi PyPI‑umsjónarmaður hlaðaði inn skaðlegum pakkum. Eftirfylgjandi greining sýndi að skaðleg færsla nýtti sama kóða‑framleiðslu‑og‑keyrslu‑hringrás sem nútíma LLM‑aðilar nota, og kom umfram orðabóklegar skipanalíkanir.
Áður í þessum mánuði birttu vísindamenn “PoisonedSkills” rammann, sem setur inn álag í Markdown‑kassa og stillingasniðmát, og breytir þeim í stórum mæli til að ná yfir 15 MITRE ATT&CK flokka. Pípun þeirra framleiddi yfir þúsund andstæðilegar færni sem keyra hljóðlega í venjulegum verkefnum aðila.
Af hverju þetta skiptir máli er einfalt: fyrirtæki taka í hraða í notkun LLM‑stýrðra aðila til forritunar, gagnaútdráttar og sjálfstæðrar ákvörðunartöku. Ef færni‑markaðurinn eða beinirinn er hnekktur, getur árásarmaður farið frá harmlögu viðbót í fulla fjarlæga kóðakeyrslu, stolið leyndarmálum og tekið yfir vinnuuppsetningar í skýjaumhverfum. Ógnan stækkar hefðbundna framboðkeðju‑líkan—þar sem aðeins líkamsþyngdir taldar voru viðkvæmar—til að innifela alla stjórnunarpípu.
Það sem þarf að fylgjast með næst eru nýir varnir. Rannsakendur leggja til strangari upprunaskráningarpunkta fyrir færnipakka, sandkassalíkamið umhverfi sem einangrar aðilaferla og keyrslustaðfestingu á beinisniðbúnaði. Geirðaríki eins og Cloud Native Computing Foundation eru áætlað að setja fram öryggisleiðbeiningar fyrir AI‑aðilaumhverfi innan næstu fjórða árs. Fylgist með viðbótum frá framleiðendum fyrir liteLLM og sambærilegum gáttum, og með ráðstefnuskilum á komandi AI‑Sec Europe samkomu þar sem höfundarnir munu kynna hagnýtar varnaraðgerðir. Keppnin milli árásarmanna og vernda er nú að færa sig frá eiturefni í líkönum yfir í kóðann sem gerir aðila gagnlegan.
Nedsláttur Nasdaq‑ins í leiðréttingarsvæði hefur ekki minnkað áhuga á eignum tengdum gervigreind, en hann hefur neydd markaðinn til að endurmeta innviða‑hlutann sem styður uppganginn. Eins og við skýrðum þann 10. apríl 2026, voru tveir AI‑tengdir hlutir sem ég setti í fókus fyrir fyrstu kaup Nvidia (NVDA) og Microsoft (MSFT); verðlagningarbreytingar í dag gera þessar valkostir enn meira aðlaðandi.
Domínans Nvidia í GPU‑hröðuðum útreikningum hefur gert fyrirtækið að de‑facto vélbúnaðaraðila fyrir generative‑AI módel, á meðan Azure‑vettvangur Microsoft nú sameinar OpenAI‑módel í pakka af fyrirtækjaþjónustum. Leiðréttingin hefur skorið um það bil 12‑15 % af framvirkum verð‑til‑sölu margföldun Nvidia og minnkað skammtímagildi Microsoft‑skýjaeiningarinnar í stig sem ekki hefur sést síðan uppgangurinn 2022, og skapað innskráningarpunkta sem samræmast langtímaspám eftirspurnar frá IDC og Gartner.
Mikilvægið felst í sundurlægingu milli yfirborðsmarkaðsviðhorfa og sértækra grundvallarþátta. AI‑knúin útgjöld eru enn í uppsveiflu, þar sem fyrirtækjafjárhagsáætlanir ætla að úthluta allt að 30 % af IT‑fjármagni til AI‑vinnslu í 2026. Með því að afslá í innviða‑hlutum gæti leiðréttingin í raun flýtt útleiðslu, þar sem lægri kostnaður við útreikninga og skýjaafkoma minnkar hindrun fyrir miðstór fyrirtæki að prófa stórtungumálamódel.
Fjárfestar ættu að fylgjast með þremur skammtímakatalýsum. Fyrst mun Nvidia‑fjárhagsárangur í þriðja fjórðungi sýna hvort H100 og nýlega tilkynntu GH200 örgjörvar skili væntum tekjuaukningum. Í öðru lagi mun Microsoft‑fjárhagsárangur í fjórða fjórðungi sýna áhrif Copilot‑for‑Office útgáfunnar og víkkunar Azure AI kreditanna. Að lokum munu makró‑efnahagsleg merki—sérstaklega stefna seðlabanka Bandaríkjanna varðandi vexti—ákvarða hvort breiðari tæknileiðrétting dýpki eða stöðvast, og setja svið fyrir mögulegan endurvakning sem sögulega fylgir fyrsta lokun í leiðréttingarsvæði.
Apple’s newly launched AI suite, Apple Intelligence, has been found vulnerable to a classic yet increasingly potent attack vector: prompt injection. Security researchers disclosed that specially crafted inputs can hijack the system’s language model, forcing it to emit malicious or profane content and, in more advanced scenarios, to reveal internal prompts that guide its behavior. The flaw stems from the way Apple Intelligence concatenates user‑supplied text with system‑level instructions before passing the combined prompt to the underlying large‑language model. By embedding hidden directives in seemingly innocuous queries, an attacker can override the model’s safeguards and steer its output toward any desired narrative.
The discovery matters because Apple Intelligence is positioned as the cornerstone of the company’s AI strategy, powering features across iOS, macOS, iPadOS and the upcoming “Apple Vision Pro” interface. If malicious actors can manipulate the model on a personal device, they could generate disinformation, phishing content, or even code that exploits other apps. The vulnerability also highlights a broader industry challenge: prompt injection attacks, long known in web‑based AI agents, are now surfacing in consumer‑grade products that lack the hardened defenses of enterprise platforms.
Apple has acknowledged the report and pledged a “rapid response” patch, but the timeline remains unclear. In the meantime, security teams are scrambling to devise mitigations, such as stricter input sanitisation and sandboxed prompt handling. Watch for Apple’s forthcoming software update, likely rolled out through iOS 18 and macOS 15, and for any disclosures from the broader AI‑security community about similar weaknesses in rival assistants. The episode underscores that as AI becomes a core OS feature, robust prompt‑injection defenses will be as essential as traditional malware protections.
Hermes, opinn hugbúnaður til að kalla á föll sem Nous Research hefur gefið út, fær sífellt meiri athygli eftir að notendur hafa tilkynnt að hann standist OpenClaw þegar hann er notaður með lágkostnaðar tungumálalíkönum. Í nýlegu færslu í samfélaginu tók forritari fram að einföld uppsetning með 7‑milliardar‑stika líkani notaði greinilega færri tákn (tokens) með Hermes en með OpenClaw, og að Hermes‑kerfið „finnur eigin breytingar rétt í fyrsta sinn oftar“. Fullyrðingin byggist á hagnýtum tilraunum frekar en formlegum viðmiðum, en söguleg gögn styðja við hönnun Hermes sem leggur áherslu á tákn‑hagkvæma spurningarstýringu og áreiðanlega breytingagreiningu.
Þessi þróun er mikilvæg því verkfærakall er lykilatriði í nútíma sjálfstýrðum gervigreindarkerfum. Með því að leyfa líkani að kalla á ytri API‑kerfi – leitar, gagnagrunna eða sérsniðna föll – geta forritarar byggt upp aðstoðarmenn sem starfa sjálfstætt. Lágkostnaðar líkan eru drifkraftur í innanhússuppsetningum og hjá kostnaðarvænum sprotafyrirtækjum; hver minnkun á notkun tákna leiðir beint til lægri reiknings fyrir útreikninga og fljótlegra svara. Ef Hermes stöðugt veitir nánari samþættingu og færri endurreynsluferla, gæti það breytt jafnvægið frá stærri, aðeins skýja‑tilboðum og flýtt útbreiðslu sjálfstæðrar gervigreindar um Norðurlönd og víðar.
Það sem á að fylgjast með næst er tilkomu kerfisbundinna samanburða. Rannsakendur eru væntanlega að birta hlið við hlið mat á staðlaðum verkfærakallasettum eins og Function‑Calling v1 gagnasafninu, og bæði Hermes‑ og OpenClaw‑liðirnir hafa gefið til kynna komandi útgáfur – Hermes v2 með víðari stuðningi við skema og OpenClaw næstu kynslóðar keyrsluumhverfi. Samþætting við vinsælar stjórnunarlag eins og LangChain eða GitHub Copilot CLI verður einnig prófsteinn fyrir raunverulega innleiðingu. Hagsmunaaðilar ættu að halda augum opin á samfélagsdrifnum viðmiðum og öllum tilkynningum frá skýjaþjónustuveitendum sem gætu innifalið Hermes‑stíls kall í API‑kerfin sín.
Alphabet (GOOGL) hefur komið aftur í barmi sem efsta valkostur fyrir fjárfesta með hóflegt $1,000 fjárhagsáætlun, samkvæmt nýrri greiningarskýrslu sem heldur því fram að mikla sölu á AI‑fyrirtækjum hafi skapað kaupumferð áður en breiðari markaðurinn nær sér aftur. Mælið fylgir viku með aukinni sveiflu sem dró Nasdaq inn í leiðréttingarsvæði, þróun sem við bentum á þann 10. apríl þegar við greindum tvö AI‑hlutabréf sem vert er að kaupa fyrst. Hlutabréf Alphabet hafa fallið um um 12 % frá upphafi ársins, en hafa hærra fall en meðaltal geirans, sem er 15 %, þrátt fyrir áframhaldandi útgáfu Gemini, næstu kynslóðar stórt tungumálalíkans, og innleiðingu AI‑tól í Google Leitarvél, Workspace og Cloud.
Áhrifin byggjast á fjölbreyttum tekjuuppsprettum Alphabet og getu þess til að nýta AI í stórum skala. Tekjur frá Google Cloud, nú knúnar áfram af AI‑bættum þjónustum, hækkuðu um 28 % á ári í Q1, á meðan auglýsingatekjur hafa hafist að ná sér eftir niðurfall vegna varfærnis auglýsenda í AI‑tengdum herferðum. Enn fremur veitir risastór gagnageymsla fyrirtækisins og hliðarfyrirtækið í hönnun örgjörva, Google‑AI, kostnaðarkosti yfir keppinauta sem enn eru háðir þriðju aðila vélbúnaði. Greiningarmenn líta á núverandi verð‑til‑tekju margföldun, 5,8, sem afslátt frá 7‑8 sviðinu sem er eðlilegt fyrir hávöxtunar AI‑fyrirtæki, og sjá möguleika á uppsveiflu ef markaðurinn endurmetur væntingar um AI‑tekjur.
Fjárfestar ættu að fylgjast með þremur lykilþáttum: frammistöðu Gemini í raunverulegum innleiðingum, næstu tekjuútgáfu sem áætlað er í byrjun maí, og öllum reglugerðum sem kunna að koma fram vegna nýju OpenAI-uppskriftarinnar um AI‑skatta og eftirlit. Sterkari en væntanleg tekjuuppgötun eða byltingarkennd samstarf gætu flýtt um enduruppbyggingu, á meðan strangari AI‑reglur eða langtímaleg hækkun í minnkun auglýsingakostnaðar gætu haldið hlutabréfinu í kyrrstöðu. Fyrir þá sem vilja úthluta þúsund dollurum núna, býður Alphabet upp á blöndu af vexti, lausafjárstreymi og þolþoli sem gæti skilað ábata þegar tæknaríkið fer í gang aftur.
Nasdaq Composite féll undir 10 % lækkunarviðmiðunina frá hámarki á föstudegi og fór formlega inn í leiðréttingarsvæði í fyrsta sinn á þessu ári. Lækkunin var kveikt af atvinnuleysisþýðingunni sem kom út veikari en búist var við og endurnýjuðu áherslu á verðbólgu, en söluþrýstingurinn hefur ekki útrýmt áhuga markaðarins á gervigreindarvörum.
Analytikinn Adam Spatacco heldur því fram að leiðréttingin sé „að hylja innviðaþróunina algerlega“ á meðan eftirspurn eftir AI-þjónustum er óbreytt. Í dálki sínum þann 9. apríl bendir hann á tvö hreint AI-fyrirtæki sem hafa sýnt verulega slæmari frammistöðu en vísitalan og nú virðast vera vanmetin: C3.ai (AI) og Palantir Technologies (PLTR). Báðar fyrirtækin hafa séð hlutabréf sín falla um meira en 20 % síðan Nasdaq náði hámarki í mars, og skapað það sem Spatacco lýsir sem „98 % og 115 % uppsögn“ samkvæmt nýlegum markaðsáherslum frá Wall Street.
Mikilvægið felst í því að á sama tíma er veikleiki á makróstigi á meðan vöxtur í tilteknum geira er í gangi. C3.ai’s platform‑as‑a‑service líkan er að ná í sér viðskiptavini í fyrirtækjum sem vilja innleiða generative‑AI eiginleika án þess að byggja upp eigin gagnastreymi, þróun sem var dregin fram í greininni okkar þann 10. apríl um bilun í retrieval‑augmented generation. Palantir’s gagna‑samruna lausn, nú styrkt með nýju samstarfi við stóran skýjaþjónustuaðila, setur fyrirtækið í stöðu til að ná í hluta af $1,5 trillion AI‑hugbúnaðar markaðinum, sem greiningar segja að muni vaxa í tvíþrepunum til 2028.
Fjárfestar ættu að fylgjast með komandi ársfjórðungsskýrslum fyrirtækjanna til að sjá merki um að tekju‑rásir séu að mótast, sem og mögulegum stefnumótunarbreytingum eftir nýja áætlun OpenAI‑forstjóra Sam Altmans um skatta- og reglugerðaráætlanir fyrir AI. Endurvakning í tækniráðningum eða mýkri stefnu Seðlabankans gæti einnig lyft breiðari Nasdaq, og flýtt fyrir verðleiðréttingunni á þessum hlutabréfum. Núna eru þessi tvö valkostir andstæðingaleg leikur á AI‑eftirspurn í kjölfar markaðslekkurs.
Ný rannsókn með titlinum „Lost in the Middle“ hrekur upp langtímavísindalega hugmynd í fyrirtækja‑AI: að því að gefa tungumálalíkani meira og meira samhengi muni sjálfkrafa bæta úttak þess. Greinin, sem er skrifuð af rannsakendum frá Stanford og DeepMind og sett á arXiv í þessari viku, sýnir að umfram um það bil 1.000 tokena í hólfinu skilar viðbótarsamhengi ekki aðeins minnkandi ávinningi, heldur getur það einnig skaðað frammistöðu í verkefnum frá samantekt skjala til kóðaútfyllingar. Höfundarnir rekja áhrifin til „tokeninflation“ – óstoppandi aukningar í fjölda tokena sem eru unnið með án samsvarandi aukins merkis, sem ýtir upp reikniskostnaði og tafum.
Niðurstöðurnar eru mikilvægar því flestir viðskipta‑LLM þjónustuaðilar verðleggja notkun á tokenum. Fyrirtæki sem óhjákvæmilega bæta við stórum þekkingargrunnum eða samtalsferlum í upphafstexta gætu verið að greiða fyrir sóun í útreikningum án þess að sjá neina gæðabætur. Á markaði þar sem AI‑knúin SaaS vörur eru þegar undir þrýstingi vegna Nasdaq‑leiðréttingarinnar sem við fjölluðum 10. apríl, gæti óhagkvæmni kostnaðarins sem rannsóknin dregur fram þrengt hagnaðarmörk fyrir fyrirtæki sem treysta mikið á OpenAI, Anthropic eða Cohere API‑a. Enn fremur bætir umhverfisáhrif óþarfa tokenvinnslu við sjálfbærnismál í viðskiptamyndinni um nákvæmari spurningarstjórnun.
Það sem á eftir að fylgjast með er hvernig AI‑pallastofnanir bregðast við. OpenAI, til dæmis, hefur hafið tilraunir með „context‑window pricing“ sem gefur afslátt á tokenum eftir ákveðinn lengd, á meðan Anthropic kynnir Retrieval‑Augmented Generation sem leið til að halda spurningum léttum. Fyrirtæki munu líklega innleiða nýjar bestu aðferðir í spurningarstjórnun, eins og breytilegt brotlokun og markvissa endurheimtu, og kanna nýrri token‑hagkvæma arkitektúra eins og LongLoRA og FlashAttention. Frekari rannsóknir frá sömu hópum eru áætlaðar seinna á þessu ári og gætu mótað iðnaðarstaðla fyrir kostnaðarhagkvæma, hágæða AI‑innleiðingu.
OpenAI tilkynnti í dag að það muni draga sig úr £31 billiún sterlings AI fjárfestingarpakka Sameinuðu konungsríkisins, skref sem hrakar um stefnu ríkisstjórnarinnar um að festa landið í fremstu sæti í alþjóðlegu AI‑keppninni. Ákvörðunin, sem kom fram í stuttum yfirlýsingu til fjölmiðla, bendir á „óvæntar lagalegar takmarkanir og vaxandi rekstrarkostnað“ sem helstu ástæður dráttarins.
Pakki, sem forsætisráðherra Rishi Sunak kynnti í febrúar, samanstóð af £10 billiún sterlings opinberum sjóði ásamt £21 billiún sterlings sem einkaaðilar skuldbunduðust að leggja til til að byggja upp landsvísanlegt AI‑miðstöð, fjármagna háskólarefni og skapa lagalegan „sandbox“ fyrir háþróuð líkön. OpenAI átti að veita háþ
Nýtt opið‑uppspretta verkefni með titlinum **BrokenClaw Part 5: GPT‑5.4 Edition (Prompt Injection)** hefur verið sett á Hacker News og býður upp á hagnýta sýningu á því hvernig nýjasta GPT‑5.4 líkanið er hægt að sannfæra um að hunsa eigin öryggisbúra. Geymslan, sem er gefin út af sama samfélagsdrifna teymi sem þróaði fyrri BrokenClaw tilraunir, inniheldur safn af handvirkt hönnuðum prompts, léttan orchestration script og safn af diagnostics sem sýna hvernig fíngerðar token‑manipulationar geta komist hjá efnis síum OpenAI.
Útgáfan er mikilvæg vegna þess að prompt injection—þar sem árásarmaður setur illgjarnar leiðbeiningar inn í sýndarlega harmlausar notendainntökur—hefur orðið eitt af þeim raunverulega árásarvegi sem eru í notkun gegn í lofti settum tungumálalíkönum. Með því að beina athyglinni að GPT‑5.4, nýjustu útgáfunni af flaggskipi OpenAI, fær BrokenClaw 5 umfjöllun um veikleika frá rannsóknarprótotýpum yfir í útgáfu sem mörg fyrirtæki eru þegar að meta fyrir viðskiptavina‑miðaðar lausnir. Höfundarnir skrá að ein lína af “jailbreak” texta getur kveikt á því að líkanið framleiði óheimilt efni, opinberar innri kerfis‑prompts eða keyrir handahófskenndan kóða þegar það er notað í samhengi við tool‑use API‑a. Niðurstöður þeirra varpa ljósi á bili milli útgefinna mótvægisaðgerða OpenAI og raunveruleikans í rauntíma prompt‑samsetningu í framleiðsluumhverfi.
Áhorfendur ættu að fylgjast með svari OpenAI; fyrirtækið gefur venjulega út fljóta viðbætur eftir samfélagslegar tilkynningar, og formleg öryggisleiðbeining gæti endurskapað bestu starfsháttir varðandi hreinsun prompts. Öryggarrannsakendur munu líklega byggja á aðferðafræði BrokenClaw 5, útvíkka prófanir í fjölbreyttar multimodal viðbætur og fínstilltar útgáfur. Á meðan þur
Apple shipped 9 percent more Macs in the first quarter of 2026 than a year earlier, according to data from market‑research firm IDC. The surge lifted Apple’s share of the global personal‑computer market to 10.2 percent, outpacing the overall PC sector, which grew a modest 2.1 percent in the same period. The gain was driven primarily by strong demand for the newly refreshed MacBook Air with the M3 chip and the entry‑level Mac mini, both positioned as affordable gateways to Apple’s expanding ecosystem of AI‑enhanced services.
The growth matters because it signals that Apple’s hardware strategy—anchoring its AI ambitions on a unified silicon platform—is resonating with consumers and enterprise buyers alike. The M3 family, built on a 3‑nanometre process, promises up to 30 percent higher performance per watt than the previous generation, a claim that aligns with the company’s push to run large language models locally on Macs. Analysts see the shipment lift as a counterweight to the broader PC market’s sluggish recovery, suggesting that Apple can capture share from rivals still wrestling with supply‑chain constraints and the cost of integrating AI accelerators.
Looking ahead, the next data point will be Q2 shipments, where Apple is expected to roll out the long‑rumoured MacBook Pro with an M3‑Pro/Max variant and a refreshed iMac. Observers will watch whether the AI‑centric marketing narrative translates into higher‑margin sales and whether enterprise adoption of Apple Silicon for AI workloads accelerates. The company’s ability to sustain momentum will also hinge on the rollout of macOS 15, which promises tighter integration with Apple Intelligence features that, as we reported on 10 April, remain vulnerable to prompt‑injection attacks. How Apple addresses those security concerns could shape both consumer confidence and enterprise uptake in the coming months.
Apple setti í loftið iOS 26.4.1 á þriðjudaginn, og uppfærslan er áberandi vegna tveggja sértækra breytinga sem snerta bæði öryggi og AI á tækinu. Fyrst hefur Stolen Device Protection (vörn gegn stoliðri tæki) verið uppfærð til að vinna nákvæmari samvinnu við Find My netkerfið: í tilfelli þar sem iPhone er kompromitterað, slökktir sjálfkrafa aðgangur að stóru tungumálalíkönum (LLM) og öðrum persónuverndarviðkvæmum þjónustum eftir þrjár misheppnaðar lykilkóða tilraunir, á sama tíma sem dulkóðað og stafrænt undirritað lock‑down skipun er send til skýja Apple. Endurbætunin bætir einnig við einum smelli „Eyða LLM skyndiminni“ valkosti í Find My forritinu, sem gerir eigendum kleift að hreinsa staðbundin AI spurningar án þess að eyða öllu tækinu.
Annar breytilegur þáttur er frammistöðu‑miðuð fínstilling á AI‑útreikningum Apple á tækinu. Nýtt lággæða áætlunarlag dregur úr keyrslu líkana í bakgrunni þegar rafhlaða fellur niður í 20 % og forgangsraðar notendabyggðum beiðnum eins og Siri fyrirspurnum eða Translate tillögum. Forritarar fá endurbætt API‑flagg sem gefur til kynna þegar kerfið fer í „orkunýtingar‑ham“ (energy‑saving mode), sem gerir forritum kleift að fresta ónauðsynlegum AI‑verkum á viðeigandi hátt.
Af hverju uppfærslan skiptir máli er tvíþætt. Að styrkja Stolen Device Protection svarar vaxandi áhyggjum um að þjófar gætu nýtt sér staðbundin AI‑gögn til að draga fram persónulegar upplýsingar, eins og var bent á í nýlegum öryggisskýrslum. Á sama tíma sýnir rafhlöðu‑vittandi LLM‑þröskuldinn Apple’s víðtæka stefnu um að gera AI á tækinu sjálfbært, ályktun sem gæti haft áhrif á neytendaákveðni um AI‑þunga eiginleika á norrænum mörkuðum þar sem orkunýting er mikilvæg.
Það sem þarf að fylgjast með næst er iOS 26.5, sem er í orðræðu um að útvíkka LLM‑þröskuldastýringuna yfir í iPadOS og koma með þróunaraðgengilegt fjarnýtingar‑mælaborð fyrir öryggisatburði. Reglugerðarstjórnir í ESB eru einnig líklegar til að skoða nýja fjarlæga óvirkni‑virkni í ljósi Digital Services Act, þannig að útgáfan gæti leitt til frekari stefnumótunar. Fylgið eftir því hversu fljótt notendur taka í notkun nýja „Eyða LLM skyndiminni“ valkostinn, þar sem snögg innleiðing mun gefa vísbendingu um traust á Apple‑vörnum gegn AI á tækinu.