AI News

219

**Tæknar Gas Town að “stela” notkun úr LLM‑kreditum notenda til að bæta sjálft sig?**

**Tæknar Gas Town að “stela” notkun úr LLM‑kreditum notenda til að bæta sjálft sig?**
HN +5 heimildir hn
**Ný rannsókn á opna‑kóðauppsetningunni “GasTown” sýnir að verkfærið gæti verið að draga frá LLM‑kreditum notenda án skýrrar samþykkis.** Samkvæmt nýlega gefnu skrám **gastown‑release.formula.toml** og **beads‑release.formula.toml** framkvæmir sjálfgefin staðbundin uppsetning sjálfkrafa skönnun á opinum vandamálum í geymslunni **github.com/steveyegge/gastown/actions**. Hver skönnun kallar á LLM‑þjónustuveitanda notandans – OpenAI, Anthropic eða aðrar þjónustur – og eyðir þannig API‑kvóta sem birtist á reikningsyfirliti notandans en er ekki tengt neinum sérstökum beiðni. Viðbragðinn kom fyrst frá forritara sem tóku eftir óútskýrðum kreditminnkunum eftir að hafa sett upp GasTown. Nánari skoðun á stillingunum sýndi að vandamálaskoðunarrútínan keyrir á 20 mínútna fresti, takt sem hefur komið fram í óskyldum umræðum um bakenda‑notkunarmörk Google Antigravity. Nýlegur bloggfærsla Steve Klabnik lýsir GasTown sem „samtímis leiðinlegt og óskýrt“, og bendir á skort á gagnsæi sem nú virðist hafa raunveruleg kostnaðarleg áhrif. Af hverju er þetta mikilvægt? Það fer langt út fyrir óvænta reikning. GasTown er markaðssett sem létt, staðbundið gátt fyrir LLM‑tilraunir, nisch sem mörg norræn sprotafyrirtæki og rannsóknarstofnanir treysta á til að nýta takmarkaða ókeypis‑kredita. Ef verkfærið í leyninu eyðir þeim kreditum til að „bæta sjálft sig“ – líklega með því að senda notkunargögn til móður‑módelanna – minnkar traust á samfélags‑stýrðum AI‑innviðum og fjárhagsáætlanir fyrir AI‑verkefni verða áhættusamari. Samfélagsviðbragðið mótar nú þegar næstu skref. Stevey Yegge, aðalumsjónarmaður verkefnisins, hefur opnað GitHub‑vandamál þar sem hann lofar lagfæringu sem mun gera vandamálaskoðunina að valfrjálsu valkosti í stað sjálfgefins. Fylgist með nýrri útgáfuárás innan næstu viku og með víðari umræðum um endurskoðunarskilyrði fyrir opna‑kóða LLM‑umbúðir, sem gætu haft áhrif á hvernig norræn fyrirtæki meta þriðju aðila verkfæri í komandi mánuðum.
157

Darkbloom – Einkaaútreikningur á óvirkum Mac tölvum

Darkbloom – Einkaaútreikningur á óvirkum Mac tölvum
HN +6 heimildir hn
appleinferenceopenai
Eigen Labs kynnti Darkbloom, dreifða útreikningaplatform sem nýtir óvirka Apple‑silicon Mac tölvur til að keyra einkaaðgerðir í gervigreind. Frumgerðina, sem var sett á GitHub fyrir þrjá daga síðan, breytir hverri sannreyndri Mac í hnút sem vinnur úr OpenAI‑samrýmanlegum fyrirmyndum með endanlegri dulritun, og lofar að kostnaður geti verið allt að 50 % lægri en í hefð
109

OpenAI bætir Agents SDK með sandkassa- og stýriflötum til öruggari fyrirtækja‑AI

OpenAI bætir Agents SDK með sandkassa- og stýriflötum til öruggari fyrirtækja‑AI
Mastodon +7 heimildir mastodon
agentsai-safetyopenai
OpenAI hefur sett í loftið stórt uppfærslu á Agents SDK, sem bætir innbyggðu sandkassa og “harness” lag sem gerir forriturum kleift að skilgreina strangar mörk fyrir notkun tóla, aðgang að gögnum og keyrslusamhengi.
96

Gemma2B skorar hærra en GPT‑3.5 Turbo í prófi sem gerði það frægt

Gemma2B skorar hærra en GPT‑3.5 Turbo í prófi sem gerði það frægt
HN +6 heimildir hn
ai-safetycopyrightgemmahuggingfaceopenaiprivacy
Gemma 2B, 2,9 milljarða færibreytna líkanið sem Google DeepMind gaf út, hefur farið fram úr GPT‑3.5‑Turbo frá OpenAI á þeim viðmiðunarmælikvarða sem fyrst setti CPU‑örvar á kort AI‑heimarins. Prófið, sem er hýst á seqpu.com, mælir heildartíðni token‑framleiðslu og gæði úttaks þegar líkanið keyrir á venjulegum x86 netþjóni án GPU‑hröðunar. Gemma 2B ekki aðeins framleiddi texta fljótar en GPT‑3.5‑Turbo, heldur skoraði einnig hærra í samkvæmni og staðreyndar‑mælikvörðum, sem hristi niður langtímavísindalega trúnaðina á því að dýrar, háþróaðar GPU‑tölvur séu forsenda til að ná samkeppnishæfu frammistöðu í stórum tungumálalíkönum. Niðurstaðan er mikilvæg því hún opnar aftur umkostun um kostnaðaráhrif sem hefur ráðið þróun AI‑tækjabirgða. Ef opinn-kóða líkan geta skilað sambærilegum eða betri niðurstöðum á venjulegum CPU‑örvum, geta smærri fyrirtæki og rannsóknarstofnanir á Norðurlöndum—og annars staðar—hunsað dýrar GPU‑klasa og samt nálgast nútímaleg tungumálahæfni. Niðurstaðan staðfestir einnig vaxandi vistkerfi CPU‑optimeraðra ályktunarbókasafna, eins og TurboQuant á Hugging Face, sem halda því fram að þeir bjóði bit‑samanlögð logits og lítinn gæðatap við kvörðun líkana fyrir CPU‑framkvæmd. Áframhaldandi þróun mun samfélagið fylgjast með því hvort Gemma‑fjölskyldan geti vaxið umfram 2,9 B útgáfuna án þess að missa CPU‑forskjörið, og hvernig skýjaþjónustuveitendur bregðast við með verðlagningu eða vélbúnaðarpakka sem hagnýta CPU‑einungis vinnslu. Næsta útgáfa OpenAI, GPT‑4o mini, sem er kynnt sem „þétt“ valkostur við helstu líkan, verður líklega sett í keppni við Gemma í næstu umferð viðmiðunarmælikvarða. Að lokum er væntanlegt að vélbúnaðarframleiðendur—Intel, AMD og ARM—kynni nýjar viðbætur í kennslusetti og silíku‑stigs hagræðingar til að þrýsta meira AI‑gagnaflæði úr netþjóna‑CPU‑um, þróun sem gæti ummyndað AI‑útreikningalandslagið á næstu mánuðum.
84

Gemini-forritið er nú á Mac

Gemini-forritið er nú á Mac
HN +6 heimildir hn
applegeminigoogle
Google hefur sett í loftið innfædd Gemini-forrit fyrir macOS, sem flytur generative‑AI spjallmenninguna frá aðeins vafraumhverfi yfir í sérstakan skjáborðsmóta. Fyrirframgangsútgáfan, sem er dreift til takmarkaðs hóps prófana, býður upp á einfalt viðmót og lofar djúpri samþættingu við macOS eiginleika eins og Spotlight-leit, kerfisvíð flýtilykla og möguleikann á að kalla á aðgerðir í öðrum forritum beint úr svörum Gemini. Þessi breyting er mikilvæg því Mac-notendur hafa hingað til þurft að treysta á vefútgáfuna, sem er óþægileg í samanburði við vel þróuðu iOS- og iPad-útgáfur Google sem voru settar á markað í byrjun þessa mánaðar. Innfært forrit lokar bilið, setur Gemini fram sem raunverulegan framleiðnivini á helstu Apple-kerfinu og gefur til kynna að Google vilji keppa á harðari hátt við AI-bætt þjónustu Apple, þar á meðal nýlega tilkynntar AI-eiginleikar sem gilda um öll tæki Apple. Fyrir forritara og fyrirtæki gæti macOS-forritið orðið leið til að sjálfvirkni vinnuferla, skrifa kóða eða draga saman skjöl án þess að yfirgefa
82

Disappointed to learn an AI Sommelier is a program that helps you pick wine and not a well dressed person

Mastodon +7 heimildir mastodon
agents
Bylgja nýrra „AI-sommelí“ þjónusta hefur náð markaðnum, en áferðin rekst á harðri raunveruleikaprófi. Nýsköpunarfyrirtæki eins og Preferabli, Sommelier.bot og Aivin hafa sett í loft chat‑miðaða aðstoðarmenn sem taka inn birgðagögn, vektorísera vörulistar og skila vínuppástöðum, matparningum og verð‑afkasta einkunnum. Verkefnin eru markaðssett sem „virtuellir sommelíar“ sem geta leiðbeint veitingagestum og smásöluaðilum um víðfeðma vínlistana með einni fyrirspurn. Áhrifin hafa þó vakið vonbrigði hjá forritara sem vonuðu eftir meira drífuðu hlutverki: glæsilegur, mannlegur umboðsmaður sem gæti ekki aðeins mælt með flöskum heldur einnig hjálpað notendum að stjórna stórum tungumálalíkönum (LLM) í víðari verkefnum. Nýlegur færslur á samfélagsmiðlum dró saman tilfinninguna og sagði að AI-sommelíið „er forrit sem hjálpar þér að velja vín og ekki vel klætt manneskja sem hjálpar þér að para LLM líkan við þau verkefni sem þú þarft að ljúka.“ Viðkomandi athugasemd dregur fram vaxandi misskilning milli loforða sértækra AI‑umboðsmanna og raunverulegra getu þeirra. Af hverju þetta skiptir máli er tvíþætt. Fyrst sýnir útbreiðsla þröngra AI‑aðstoðarmanna hversu fljótt fyrirtæki eru að gera LLM‑drifna ráðleggingavélir að vörum, sem gæti dregið úr skynsamlegu gildi mannlegrar sérfræðikunnáttu í sviðum eins og vínþjónustu. Í öðru lagi varpar atburðurinn ljósi á breiðari mynstri sem við bentum á áður — í greininni „Things You’re Overengineering in Your AI Agent“ (15. apríl 2026) — þar sem forritarar leggja flókin persónuskil á módel sem þegar takast á við kjarnalógíkina, og skapa óþarfa flækjustig án viðbótarvirðingar. Það sem á eftir að fylgjast með er hvort birgjar þrói lausnir sínar út fyrir stöðugar ráðleggingalistar. Greiningaraðilar í greininni vænta að næsta kynslóð AI‑sommelía innlimi samtalsamhengi, rauntíma birgðauppfærslur og jafnvel skynjunargögn frá snjöllum bragðtökutækjum. Ef þeir ná að brúa bilið milli reikniritlegra tillagna og dýrmætra, reynslubundinna þekkingar mannlegra sommelía, gæti tæknin loksins fengið „vel klædda“ orðsporið sem hún vantar. Þar til það gerist er líklegt að markaðurinn sjá samruna þjónustu sem einbeitir sér að áreiðanlegum, gagnadrifnum ráðleggingum frekar en að dreyma um persónuskil.
79

Ég eyddi þremur dögum í að aflúta LLM‑uppsetninguna okkar. Sýnist að við þurftum AI‑gateway allan tímann.

Ég eyddi þremur dögum í að aflúta LLM‑uppsetninguna okkar. Sýnist að við þurftum AI‑gateway allan tímann.
Dev.to +5 heimildir dev.to
openai
Þriggja daga aflútunarmaratónn hjá miðstórum norrænum SaaS‑fyrirtæki leiddi í ljós falinn kostnaðarþátt sem margir AI‑notendur eru aðeins að byrja að sjá: skortur á sérstökum AI‑gateway. Teymið, sem var skipt á milli þriggja vöruhópa, jongleraði fjögur framleiðendur stórræða‑líkananna og sex ólíkar API‑lyklar sem voru geymdir í mismunandi .env skrám. Þegar nýr eiginleiki var settur í notkun, hoppaði notkunarmælarinn hjá OpenAI frá væntanlegum $50 í ótrúleg $1.400 á einni viku, sem vakti reiði hjá samræmisfulltrúa og leiddi til örvæntingarfullrar leit að leka. Rót vandans kom í ljós ekki vera kóðavilla heldur flakkvilla í leiðakerfi. Framendinn sendi beiðnir í prófunarumhverfi sem, þó tæknilega sé það virkt, sendi aldrei gögnin áfram til framleiðslulíkansins. Hver óviðkomandi kall sló enn í reikningskerfi OpenAI, hækkaði kostnað án þess að skila gildi. Lausn verkfræðinga var að innleiða AI‑gateway — þunnt millistig sem miðstýrir auðkenningu, sannprófun beiðna, takmörkun á fjölda kalls og kostnaðarmælingu fyrir allan LLM‑umferð. Af hverju er þetta mikilvægt? Tvöfalt. Fyrst, þegar fyrirtæki leggja mörg líkön í stafróf sitt, veldur margbreytileiki lykla, umhverfa og samræmisreglna í kombínatívum sprengju í fjölda möguleika sem gerir handvirka stjórnun villuhætta. Í öðru lagi geta óstýrt LLM‑kall fljótt tæmt fjárhagsáætlanir og gert stofnanir viðkvæmar fyrir reglugerðaráhættu, sérstaklega í löndum með strangar gagnavinnslulöggjöf. AI‑gateway býður upp á eitt stjórnunarstig, sem gerir kleift að fá rauntímaviðvaranir um útgjöld, endurskoðunarspor og stefnuútfærslu án þess að endurskrifa hvern viðskiptavini. Þessi atburður dregur fram breiðari þróun í átt að “LLMOps” verkfærum, sérsvið sem er þegar að laða að áhættufjármuni. Við getum væntað að helstu API‑stjórnunaraðilar birti sértæk AI‑mótul, og að opinn hugbúnaður eins og LangChain‑Gateway fái meiri notkun. Fylgist með eftir því þegar staðlað stofnanir setja upp samhæfni-kröfur fyrir AI‑gateway, og þegar norrænir sprotafyrirtæki innleiða þessi lag frá fyrsta degi til að vera í samræmi og kostnaðar­hagkvæm.
73

Google lanserar Gemini AI-forrit á Mac

Google lanserar Gemini AI-forrit á Mac
Mastodon +7 heimildir mastodon
applegeminigoogle
Google hefur sett í umferð innfædd Gemini AI-forrit fyrir macOS, sem er fyrsta sinn sem fyrirtækið býður upp á flaggskip sitt í stóru tungumálalíkani sem sérstakan skjáborðsklient. Forritið var byggt í Swift af Antigravity-teymi Google, og í samræmi við tilkynninguna fór frumgerðin frá hugmynd til virklegs forrits á nokkrum dögum. Gemini fyrir Mac situr í valmyndastikunni, býður upp á alþjóðlegan flýtilykil til tafarlausrar spjalls, og styður sömu fjölbreytta getu—texta, myndasköpun og kóðaaðstoð—sem hefur haldið iPhone-útgáfunni í þremur efstu AI-forritum í App Store. Þessi ákvörðun er mikilvæg því hún lokar bili í AI-landslaginu á skjáborðum. OpenAI‑ChatGPT og Anthropic‑Claude bjóða nú þegar innfædd macOS-forrit, sem gefur Google seint en stefnumótandi innleiðingarstig til að ná til Mac-notenda sem kjósa samfellda, kerfisinnbyggða upplifun fram yfir vefaðgang. Með því að koma Gemini út sem fyrsta‑aðila forrit getur Google tengt AI-kerfið nánar við breiðara Google‑vistkerfi—Calendar, Docs, Drive—og mögulega nýtt sér frammistöðu Apple Silicon. Útgáfan dregur einnig fram vaxandi samkeppni milli stórra tæknifyrirtækja í AI um að ná yfir bæði farsíma- og skjáborðsvinnslu, samkeppni sem hefur þegar hvatt Apple til að endurbæta Siri og kanna einkarekna ály
73

OpenAI kynnir GPT‑5.4 Cyber og það er hannað sérstaklega fyrir verjendur

Mastodon +8 heimildir mastodon
googlegpt-5openai
OpenAI kynnti GPT‑5.4 Cyber þann 14. apríl, sérhannaðan útgáfu af flaggskipinu GPT‑5.4 módelinu sem er gefin út eingöngu til yfirfarsinna verndaröryggisteyma í gegnum nýja Trusted Access for Cyber áætlun fyrirtækisins. Módelið fjarlægir mörg af þeim efnisfiltrunartakmörkunum sem gilda um almenna útgáfuna og bætir við sértækum hæfileikum eins og tvíundar‑afturverkfræði, greiningu á stigum samskiptareglna og sjálfvirkri samantekt á ógnaupplýsingum. Aðgangur er veittur aðeins eftir að stofnanir sanna að þær séu raunverulegir verjendur, skref í hliðarröð sem OpenAI segir að miðar að því að halda öflugu tólinu í burtu frá illgjarnum höndum. Útgáfan merkir nýjustu stefnu stórra tungumálamódelafyrirtækja að steypa í sértæka, hágæða fyrirtækja‑notkun. Eins og við skýrðum þann 15. apríl, sýndi GPT‑5.4 Pro þegar framúrskarandi rannsóknar‑rökstuðning með því að leysa stærðfræðidæmi Erdős; GPT‑5.4 Cyber beinir nú þeirri hráa getu í ferlið fyrir netöryggisvernd. Með því að sjálfvirknivæða vinnusamdráttandi verkefni eins og afkóðun skaðlegra forrita og tengingu atburðaskráa, gæti módelið minnkað viðbragðstíma við öryggisatvikum og minnkað hæfileikaskortið sem plágir mörg öryggismiðstöðvar (SOC). Á sama tíma vekur minnkun öryggislaganna upp ógn um óvart leka eða viljandi misnotkun ef yfirferðarferlið bregst, áhyggjuefni sem iðnaðarskoðarar leggja áherslu á og varða að hvaða “verjenda‑fyrst” gervigreind getur auðveldlega verið endurnýtt í árásarverkefni. Aðgerð OpenAI dregur einnig úr ágreiningi í vaxandi AI‑netöryggiskeppni við Anthropic, sem kynnti Claude Mythos‑forskoðun nokkrum dögum áður. Þó að Mythos stefni að jafnvægi milli rauðra og bláa liða, er GPT‑5.4 Cyber sett fram sem hreint blátt‑liðar‑tæki, sem bendir til stefnumótandi sundurskilnaðar á markaðnum. Það sem á að fylgjast með næst: hraði og nákvæmni yfirferðarferlis OpenAI, fyrstu frammistöðuupplýsingar frá tilraunastofnunum og allar stefnumótandi eða reglugerðarviðbrögð við tvínota möguleika módelins. Víðari útbreiðsla eða léttun á aðgangsstýringum gæti umbreytt landslagi ógnaupplýsinga, á meðan samþætting við sandbox‑útgáfu OpenAI’s Agents SDK gæti orðið næsta landamót í öruggu, sjálfstæðu sjálfvirku varnarmálum.
70

🏛️ FORSTJÓRNUÐUR DÓ 15. apríl 1865 — Í litlu gistingahúsi, í herbergi á móti Ford's Theatre

Mastodon +7 heimildir mastodon
Forseti Abraham Lincoln dó á morguninn 15. apríl 1865, í hógæfu herbergi í gistingahúsi á móti Ford’s Theatre. Kl. 7:22 a.m., ellefu klukkustundir eftir banvæna skot John Wilkes Booth, lék 56‑ár gamli leiðtogi lífið frá sér, umkringdur af dásamlegum ráðherraþingi sem innihélt utanríkisráðherra William H. Seward og herráðarmálaráðherra Edwin M. Stanton. Þjóðin, þegar þegar þreytt af fjórum árum borgarastyrjaldar, fékk í vitneskju að “Stórkveikjan” hennar hafði fallið í þröngu, óskreyttum herbergi sem nú er þekkt sem Petersen House. Dauði forsetans merkti umbyltu í bandarískri sögu. Hann stöðvaði hreyfingu meðalstæðis enduruppbyggingarplans Lincolns og braut veg fyrir harðari, brotnari nálgun undir arftökum hans. Sú skyndilega missir ýtti einnig til mótspyrna í norðurhluta, og leiddi til óviðjafnanlegs útstreymis almennrar sorgar sem hjálpaði til við að móta sameiginlegt minningarlíf um Lincoln sem fórnarlamb frelsis og einingar. Alþjóðlega merkti atburðurinn lok á óstöðugum tímabili, og hafði áhrif á diplómatísk tengsl þegar evrópskir valdamenn endurskoðuðu stöðug
68

Af hverju andmæli gegn gervigreind hefur leitt til ofbeldis

Mastodon +6 heimildir mastodon
Nýrannsókn eftir blaðamaðurinn Brian Merchant, birt 15. apríl, heldur því fram að áköf óvissa almennings um gerðargervigreind (generative AI) hafi sprengst í opinberu ofbeldi og sé líklegt að hún aukist. Merchant bendir á röð atburða sem hafa átt sér stað á síðustu tólf mánuðum – frá brunamyndun á sænsku AI‑örflöguverksmiðju til samstilltra „de‑AI“ mótmæla sem lokaðu innraðgangi OpenAI‑s í San Francisco, og nýlegan hnífing í vélaverkfræðiverkstæði í Osló þar sem starfsmenn kröfðu sjálfvirkni um atvinnumissi. Hann tengir þessi árekstrar við víðtækara andmæli sem er knúið af vaxandi atvinnuleysi, ógegnsæjum fyrirtækjaaðferðum og skynjun þess að iðnaðurinn sé að biðja almenning um að samþykkja tækni sem þeir stjórna ekki. Aukningin er mikilvæg vegna þess að hún ógnar því að seinka fljótu útbreiðslu stórra tungumálalíkana og annarra gerðargervigreindartækja sem hafa orðið hluti af öllu frá þjónustu við viðskiptavini til læknisfræðilegra greininga. Ofbeldislegar aðgerðir auka öryggiskostnað fyrir AI-fyrirtæki, geta leitt til strangari leyfisreglna og gætu neyð fjárfesta til að endurskoða áhættusnið AI‑miðaðra sprotafyrirtækja. Andmælið eykur einnig pólitísku þrýsting á stjórnvöld til að grípa inn í, í takt við fyrri áhyggjur sem við höfum fjallað um félagsleg áhrif AI, eins og ákvörðun Keith Rabois um að hafna fartölvum og borðtölvum (15. apríl) og ákvörðun OpenAI um að halda GPT‑5.4‑Cyber utan viðskiptavina‑ChatGPT vettvangsins (15. apríl). Áhorfandi framtíð, næstu vikur munu sýna hvort yfirvöld meðhöndli óreiðuna sem einstaka glæp eða sem einkenni dýpri samfélagslegrar sprungu. Fylgist með yfirlýsingum frá Evrópusambandinu um öryggi almennings í tengslum við AI, mögulegri nýrri löggjöf í Svíþjóð og Noregi sem miðar að „hááhættulegum“ AI‑uppsetningum, og fyrirtækjaákvörðunum um að styrkja öryggi á staðnum eða hefja samfélagsáhersluáætlanir. Ferill ofbeldisins mun líklega móta reglugerðarumhverfið sem ákveður hvernig og hversu fljótt gerðargervigreind getur verið innleidd í daglegt líf í norrænum löndum og víðar.
65

Anthropic endurbyggir Claude Code skjáborðsforskrift í kringum samhliða lotur

Anthropic endurbyggir Claude Code skjáborðsforskrift í kringum samhliða lotur
Mastodon +6 heimildir mastodon
anthropicappleclaude
Anthropic hefur sett í loftið umtalsverða endurhönnun á Claude Code skjáborðsmóti, með áherslu á stuðning við samhliða lotur. Uppfærða forritið gerir nú þróunaraðilum kleift að ræsa mörg Claude-tilvik hlið við hlið, í samræmi við þann sveigjanleika sem Claude Code skipanalínutúlkunin hefur boðið í langan tíma og útvíkkar fulla viðbótasamhæfni í grafíska umhverfið. Breytingin er mikilvæg því hún umbreytir Claude Code úr einþráða aðstoðarmanni í fjölverkavinnslupartner sem getur sinnt ólíkum forritunarsamhengjum — að villuleita í einu verkefni á meðan endurskipuleggja í öðru, eða keyra mismunandi spurningar fyrir framenda- og bakendaverkefni án þess að skipta um glugga. Með því að samræma skjáborðsgrafíkina við viðbótakerfið í CLI fjarlægir Anthropic hindrun sem hefur takmarkað notkun hjá öflugum notendum sem treysta á sérsniðna verkfæri. Aðger
65

Frábært atriði sem Claude Code – eða OpenAI Codex – býður tæknarskrifendum er að þeir geta ...

Mastodon +6 heimildir mastodon
claudeopenai
Samstilltur íforrit sem gefið var út á GitHub í þessari viku gerir forritara kleift að kalla á OpenAI’s Codex beint úr Anthropic’s Claude Code, og umbreytir tveimur leiðandi kóðaaðstoðarvettvangi í eina staðfestingarvél fyrir tæknarskrifendur. Opinn hugbúnaðurinn „codex‑plugin‑cc“ bætir við „review code“ skipun í spjallviðmót Claude Code, sem gerir notendum kleift að beina líkanið að geymslu og spyrja hvort ákveðin skjölun passi við raunverulega útfærslu. Íforritið styður einnig við úthlutun venjulegra endurskipulagningarverkefna, sem gerir skribentum kleift að einbeita sér að frásögninni á meðan gervigreindin sannreynir setningafræði, API-undirskriftir og meðferð jaðartilvika. Aðgerðin er mikilvæg vegna þess að villur í skjölun eru enn mikil uppspretta niðurtíma og öryggisáhættu í hugbúnaðarverkefnum. Með því að tengja sjálfkrafa texta við lifandi kóða geta teymi greint ósamræmi áður en útgáfa fer í loftið, minnkað álag á verkfræðinga og viðhaldið strangari eftirfylgni. Snemma notendur skrá um allt að 40 % minnkun í handvirkum yfirferðartíma, ávinningur sem fellur að víðari stefnu um AI-aukna þróunartól sem fjallað var í skýrslu okkar 15. apríl um menningu Claude Code í verkfræði. Samþættingin kemur í kjölfar þess að OpenAI stækkar Agents SDK sitt með sandkassa- og auðlindastýringareiginleikum, og í ljósi þess að markaðurinn ræðir hvort GPT‑5‑Codex, Claude Code eða nýrri verkfæri eins og Cursor muni ráða í kóðaaðstoðargeiranum. Að fylgjast með þróun notkunarmælikvarða íforritsins mun sýna hvort blandað Claude‑Codex vinnuferli geti farið fram úr hreinum líkani lausnum. Jafnframt verður mikilvægt að fylgjast með verð- eða leyfisbreytingum sem OpenAI gæti innleitt í Codex, í ljósi nýlegra spádóma um breytingar á ChatGPT‑plus stigum. Áhugasamir aðilar ættu að fylgjast með væntanlegum uppfærslum á öryggislíkani íforritsins, sérstaklega hvernig það nýtir sandkassa keyrsluumhverfið sem kynnt var í nýjustu Agents SDK. Ef sameinaða lausnin reynist áreiðanleg í stórum mæli, gæti hún sett nýtt viðmið fyrir AI‑stýrða skjölunargæði í norræna hugbúnaðarumhverfinu.
63

How Claude Code Uses React in the Terminal

Dev.to +6 heimildir dev.to
claude
Anthropic has unveiled the inner workings of Claude Code’s command‑line interface, confirming that the AI‑powered coding assistant is built as a React application that renders directly to the terminal. A custom renderer takes charge of layout, screen buffers, diffing and a high‑frame‑rate refresh loop, while React’s reconciliation engine manages UI state. The revelation comes from a recent deep‑dive posted by the company’s engineering team, which also disclosed that the V8 heap alone consumes roughly 32 GB of virtual memory, with a peak resident footprint of 746 MB that never fully releases. As we reported on 15 April 2026, Claude Code’s source code already hinted at a web‑centric architecture, but this is the first explicit confirmation that the tool leverages the same component model that powers modern front‑end frameworks. By treating the terminal as a canvas for React, Claude Code can present multi‑pane layouts, live Metro bundler logs and interactive prompts without spawning separate windows, delivering a fluid experience that rivals graphical IDEs while staying inside a developer’s preferred shell. The move matters because it blurs the line between traditional CLI tools and rich UI applications, opening the door for other AI assistants to adopt similar patterns. Developers gain instant visual feedback—such as component trees, diff previews and real‑time plan mode suggestions—without leaving the terminal, potentially accelerating onboarding and refactoring tasks. At the same time, the reported memory profile raises concerns about scalability on modest hardware, prompting calls for tighter heap management or a leaner renderer. Watch for Anthropic’s response to the memory‑usage findings, likely in the form of a lightweight rendering mode or a modular build that can be toggled off. Equally important will be whether third‑party projects adopt the “React‑in‑the‑terminal” approach, turning the CLI into a first‑class canvas for AI‑driven development workflows.
59

From Sabine's email for the day: Researchers from OpenAI have put forward an industrial policy for

Mastodon +6 heimildir mastodon
openai
OpenAI researchers have unveiled a draft industrial policy that enshrines a legally recognised “Right to AI,” calling for universal public access to the most capable generative models. The proposal, circulated in a briefing shared by physicist‑blogger Sabine Hossenfelder, argues that governments should fund large‑scale compute clusters and make them available to academia, small enterprises and civil society, thereby preventing a monopoly of power in the hands of a few tech giants. The move marks a rare foray by a leading AI lab into formal policy design, shifting the conversation from voluntary safety guidelines to a statutory framework. By positioning AI access as a public utility, OpenAI hopes to democratise innovation, reduce the risk of a “AI divide,” and create a regulated environment where safety testing can be performed on parity‑level hardware. The draft also outlines mechanisms for transparent licensing, audit trails and a public oversight board, echoing the European Union’s AI Act but with a stronger emphasis on compute as a shared resource. Why it matters is twofold. First, it challenges the prevailing market‑driven model that ties cutting‑edge models to proprietary cloud services, a model that has drawn criticism amid concerns over concentration of talent and data. Second, it could reshape funding flows: the policy calls for state‑backed compute budgets comparable to national supercomputing programmes, a notion that may influence ongoing discussions about the $40 billion loan consortium that recently pledged financing to OpenAI. What to watch next are the reactions from policymakers in the EU, the United States and Nordic governments, where AI strategy is already a priority. If the draft gains traction, legislative drafts may appear in upcoming AI strategy white papers, and OpenAI could pilot a government‑funded compute hub later this year. The proposal also raises questions about how the “Right to AI” will be balanced against national security and intellectual‑property concerns, setting the stage for a heated policy debate in the months ahead.
51

Claude Code innri: hvað lekið frumkóða sýnir um hvernig það hugsar í raun

Claude Code innri: hvað lekið frumkóða sýnir um hvernig það hugsar í raun
Dev.to +6 heimildir dev.to
anthropicclaude
Anthropic’s Claude Code, AI‑knúna kóðaraðstoðarmaðurinn sem hefur umbreytt vinnuferlum forritara, var óvart settur með fjölda innri frumkóða í opinberu npm‑útgáfunni á þriðjudaginn. Pakki sem var ætlaður innri prófun opinberaði meira en 500 000 línur af kóða, þar á meðal byggingarskrár, gerða-tilgreiningar og falinn „Undercover Mode“ sem er hannaður til að hreinsa frá sér eignarleg leyndarmál úr opinberum innsendingum. Samtalsmaður Anthropic lýsti atvikið sem pakkunarvilla frekar en öryggisbrot, og lagði áherslu á að engin viðskiptavinagögn eða auðkenni voru innifalin. Lekið er mikilvægt af nokkrum ástæðum. Fyrst gefur það sjaldgæfa sýn á byggingaruppbyggingu sem knýr Claude Code til að bjóða rauntíma tillögur, og staðfestir fyrri ályktanir um að verkfærið byggist á samhliða lotustjórnun og AST‑stýrðri greiningu—eiginleikar sem við fjölluðum í skýrslu okkar frá 16. apríl um nýja endurbyggingu skjáborðforritsins. Í öðru lagi bendir tilvist Bun‑grunns byggingarpípur og skortur á .npmignore skrá til lausrar útgáfuvenju, sem vekur spurningar um styrk birgðakeðjuöryggis Anthropic. Í þriðja lagi bendir „Undercover Mode“ til þess að Anthropic hafi í fyrri tíma hannað virkt öryggisráð til að koma í veg fyrir óviljandi leyndarmálaútlit, aðferð sem gæti sett nýjan staðal fyrir AI‑hjálpað þróunartól. Það sem þarf að fylgjast með næst eru áætlun Anthropic um viðgerð og hvort fyrirtækið muni innleiða harðari útgáfuprócess eða opna kóða hluta Claude Code til að endurheimta traust. Öryggarrannsakendur eru nú þegar að greina kóðann til að finna möguleg veikleika sem gætu verið nýtt gegn notendum í keðjunni. Keppinautar geta einnig nýtt sér innsýnina til að flýta fyrir eigin AI‑kóðunartilboðum. Að lokum ættu forritarar sem nota Claude Code að fylgjast með væntanlegum lagfæringum og endurskoða allar samþættingar sem byggja á núna opinberu innri kerfinu.
48

Ég smíðaði algerlega einfalt forrit vegna þess að Claude Code gat ekki heyrt mig

Dev.to +6 heimildir dev.to
claude
Forritari á r/vibecoding spjallborðinu birti stuttan leiðarvísi um „algerlega einfalt“ iOS frumgerð sem hann setti saman eftir að uppgötvaði að Claude Code, þegar það er nálgast í gegnum Amazon Bedrock, getur ekki hlustað á taldar skipanir. Takmarkið stafar af sandkassu‑umhverfi Bedrock, sem meðvitað hindrar aðgang að hljóðnema af öryggis- og tafarökum. Án möguleika á að „heyra“ notandann fer Claude Code í texta‑einungis samskipti, sem neyðir forritarann til að búa til litla notendaviðmót sem tekur upp röddina staðbundið, umbreytir henni í texta með annarri þjónustu og sendir textann til módelins. Úrbúið er meira en skemmtilegur hack; það dregur fram víðtækari árekstrarpunkt í vaxandi markaði fyrir AI‑studd þróun. Styrkleiki Claude Code felst í getu þess til að búa til og breyta kóða í rauntíma, en skortur á fjölbreyttum inntökum hamlar vinnuferlum sem byggja á hraðri, handahreyfingarlausri endurtekningu – eitthvað margir forritarar búast við frá næstu kynslóð aðstoðarmönnum. Atvikið varpar einnig ljósi á hagnýtar áskoranir við að keyra Claude Code í blandaðri umhverfi eins og WSL, þar sem árekstrar í Node slóðum geta hljóðlega brotið tækið, eins og skráð er í vandamálaleiðbeiningum Anthropic. Anthropic hefur þegar sýnt vitund um þessi samskiptagap. Í desember 2025 var lagt fram eiginleikabeiðni um krók þegar Claude bíður eftir notendainntaki, og í apríl 16 var ný útgáfa skjáborðforritsins endurbúin með hliðstæðum lotum til að halda viðmótinu viðbragðsflýti. En Bedrock‑samþættingin er ennþá aðeins texta, í mótsögn við Google Gemini Mac‑forritið, sem þegar styður raddskipanir, og Apple’s komandi Siri‑uppfærslu sem lofar dýpri AI‑samþættingu. Það sem þarf að fylgjast með næst: vegvísir Anthropic fyrir Bedrock‑byggða Claude Code, sérstaklega hvort þeir muni opna hljóðnema strauma eða innfædda tal‑til‑texta pípur; uppfærslur á hliðstæðri lotukerfi sem gætu gert flæði milli fjölbreyttra inntaka mýkra; og samkeppnisþrýstingur frá Google og Apple, sem gæti flýtt fyrir útgáfu raddvirkra kóðunarhjálpara á næstu mánuðum.
48

Google gefur út japönsku‑studdan talgervingar‑AI “Gemini 3.1 Flash TTS” – Við prófuðum hann; Tilfinningum er hægt að stjórna með raddtáknum – GIGAZINE

Google gefur út japönsku‑studdan talgervingar‑AI “Gemini 3.1 Flash TTS” – Við prófuðum hann; Tilfinningum er hægt að stjórna með raddtáknum – GIGAZINE
Mastodon +6 heimildir mastodon
agentsdeepmindgeminigoogleqwenspeechvoice
Google hefur bætt við japönsku í Gemini 3.1 Flash TTS‑vélina, tilkynnti fyrirtækið á þriðjudaginn og GIGAZINE setti líkanið í eigin prófanir. Nýja talgervingarþjónustan byggir á Flash‑gerðinni arkitektúr sem var kynnt fyrr á þessu ári – léttvægur, lág‑latency líkan hannaður til rauntímaframleiðslu á neytendahugbúnaði – og styður nú alla breidd japönskra hljóðfræðilegra þátta, tónhæðarákvarðana og virðingarform. Það sem greinir útgáfuna frá öðrum er möguleikinn á að stýra tilfinningatóninum með einföldum „raddtáknum“ (voice tags) sem eru innfelldir í fyrirmælið. Með því að setja inn merki eins og <happy>, <sad> eða <excited> geta notendur látið úttakið hljóma líflegra, dapprara eða áreynslusamra án þess að breyta hljóðeiginleikum handvirkt. Í sýningunni hjá GIGAZINE hljómaði sama setningin með <joyful> merki greinilega bjartari en í hlutlausri útgáfu, á meðan <serious> merkið bætti við mældum, yfirráðandi takti. Af hverju þetta skiptir máli er tvíþætt. Fyrst og fremst er japanska þriðja stærsti tungumálamarkaður í heiminum fyrir raddaðstoðarmenn, og innfædd gervigreind í talgervingu hefur verið blindur punktur fyrir flesta vestræna AI‑veitendur. Gemini 3.1 Flash TTS minnkar þennan bili, og gefur þróunaraðilum verkfæri sem er hægt að innfelda í Android‑forrit, Chrome‑viðbætur eða á‑tæki þjónustu án þess að þurfa skýja‑kall. Í öðru lagi minnkar viðmótið með tilfinningamerkjum hindrunina fyrir efnisframleiðendur, kennara og aðgengisverkfæri til að framleiða fínstillta hljóð í stórum mæli, hæfni sem áður kröfðist sérstaka prosóða‑breytingarferla. Útgáfan er núna takmarkað við Vertex AI API í Google Cloud, en víðtækari neytenda‑samþætting er væntanleg síðar á þessu ári. Eins og við skýrðum 15. apríl, hafði Gemini 3.1 texta‑til‑tala líkanið þegar þá hágæða enskt úttak; japanska útvíkkunin er fyrsta stórkostlega fjöltyngda útvíkkunin. Það sem á að fylgjast með næst: tímasetning SDK‑ins sem mun gera Android‑þróunaraðilum kleift að kalla á Flash TTS staðbundið, möguleg pakkning með Gemini 3.1 forritinu fyrir macOS sem var tilkynnt 16. apríl, og hvort Google muni birta raddtákna‑syntaksann í komandi Gemini 3.2 uppfærslu. Keppni frá opnum kóða líkum eins og Qwen3‑TTS‑Flash bendir til þess að keppnin um rauntíma, tilfinningavæna talgervingu sé aðeins að hita upp.
47

Sjúkrahús setja í loftið spjallmenni, leitast við að endurheimta hlutverk sitt í samtölum sjúklinga um heilsu

Mastodon +6 heimildir mastodon
Sjúkrahús eru að setja í loftið sín eigin AI‑spjallmenni til að ná stjórn á vaxandi fjölda neytenda‑drifinna heilsuspamála. Nokkur heilbrigðiskerfi, þar á meðal tilraun hjá Sutter Health í Kaliforníu, hafa sett í gang eigið aðstoðarforrit sem sitja inn í sjúklinga‑portala og í farsímaforrit. Aðgerðinni fylgir skýrsla frá Stat News um að meira en 40 milljón manns spyrji ChatGPT daglega um læknisfræðileg efni, fjöldi sem sjúkrahús óttast að sé að draga þátttöku og tekjur frá hefðbundnum umönnunarmöguleikum. Með því að innleiða merkið spjallmenni stefna heilbrigðiskerfin að því að veita sannreyndar, á vísindalegum gögnum byggðar svör, flokka einfaldar áhyggjur og beina notendum í átt að bókuðum tíma eða fjarfundum. Tæknin lofar að minnka álag í símtalsmiðjum, bæta fylgni við lyfjagjöf og safna gögnum sem geta fínstillt íbúa‑heilsuáætlanir. Fyrir sjúklinga gæti spjallmenni í eigu sjúkrahússins þýtt fljótari aðgang að persónulegri leiðsögn sem virðir persónuverndarreglur eins og HIPAA. Útbreiðsla er ekki án áhættu. Flestir viðskiptalegir stórtungumálalíkön eru ekki FDA‑samþykktir til greiningar, og sjúkrahús þurfa að verja sig gegn rangfærslum, hlutdrægni og ábyrgð á rangri ráðgjöf. Því eru fyrstu tilraunir takmarkaðar við upplýsingastuðning
45

Hvernig ég nota AST og Gemini til að leysa vandamálið við “Upphaf í kóðasafni” 🧠

Dev.to +5 heimildir dev.to
gemini
Tara Mäkinen, eldri hugbúnaðarverkfræðingur og ráðgjafi, hefur kynnt hagnýtt vinnuferli sem sameinar abstrakt syntaxtré (AST) með Google‑Gemini‑líkani til að minnka námsferlið fyrir forritara sem ganga í stór kóðasöfn. Í ítarlegu færslu sem kom út í dag útskýrir hún hvernig ráðgjafarverkfæri hennar, AuraCode, dregur sjálfkrafa út AST úr geymslu og setur þau inn í langtímaskilaboð Gemini, sem gerir líkönum kleift að búa til upphafsgreiningu á nokkrum mínútum í stað nokkurra daga. Fyrir lítil til meðalstór verkefni setur AuraCode fullt AST beint inn í samhengi Gemini, sem gerir líkönum kleift að svara smáatriða spurningum um fallaskilgreiningar, gagnaflæði og arkitektúrshluta. Í stærri monorepos skiptir verkfærið fyrst AST í þemabundna hluta – til dæmis notendaviðmótslag, gagnasamskiptar, byggingarforrit – og notar samantektarfærni Gemini til að binda saman yfirgripsmikla yfirlit áður en farið er í nánari greiningu eftir þörfum. Útkoman er tvíþætt leiðarvísir sem sameinar hnitmiðaða arkitektúrkort með línu‑fyrir‑línu útskýringu, allt haldið uppfært í takt við þróun kóðans. Eins og við skýrðum 15. apríl, sýndu fyrstu tilraunir Tara að Gemini gæti breytt hráum kóða í lesanleg skjöl, en nýja færslan bætir við skalanlegum rökum sem gera aðferðina viðeigandi fyrir fyrirtækjastærð geymslur. Aðferðin forðast algengt vandamál með úreltar README-skrár og dreifðar Confluence-síður, og býður upp á dýnamískt, AI‑stýrt valkost sem er hægt að endurgera við hverja innsetningu. Mikilvægið nær út fyrir upphafskennslu. Samfelld framleiðsla á AST‑bættum spurningum gæti fært í sjálfvirkar kóðaúttektir, öryggisprófanir og jafnvel myndun próftilfellna, og breytt Gemini í fjölnota aðstoðarmann fyrir alla þróunarlíftíma. Fylgist með komandi opna‑kóða útgáfu AuraCode‑AST útdráttar pípurinnar, sem er áætlað í byrjun maí, og næstu uppfærslu Gemini frá Google, sem lofar enn stærri samhengi og innbyggðu AST‑þekkingu. Saman gætu þau sett nýjan staðal fyrir AI‑studdan hugbúnaðarverkfræði í Norðurlöndum og víðar.
44

Amazon's Globalstar Grab Adds iPhone Connectivity to Its Starlink Pursuit

Mastodon +6 heimildir mastodon
acquisitionamazonapplegoogle
Amazon has sealed an $11.57 billion deal to acquire Globalstar, the U.S. satellite‑service provider whose L‑band spectrum and two‑dozen low‑Earth‑orbit satellites will be folded into Amazon’s Project Leo network. The transaction, announced on Thursday, also secures a long‑standing agreement that lets Apple’s iPhone and Apple Watch tap Globalstar’s satellite links for emergency messaging and, for the first time, routine data connectivity. The move deepens Amazon’s bid to build a global broadband constellation that can rival SpaceX’s Starlink. By marrying Globalstar’s legacy assets with the dozens of Kuiper‑derived satellites already slated for launch, Amazon gains immediate coverage in the Americas, Europe and parts of Asia, while the spectrum deal clears a regulatory hurdle that has slowed other LEO projects. For Apple, the partnership expands the iPhone’s “satellite‑enabled” feature set beyond SOS alerts, potentially allowing users to send texts, emails or location data without cellular service—a capability that could reshape mobile usage in remote regions. The acquisition also marks the second phase of the collaboration first reported on 15 April, when Apple and Amazon announced a joint satellite venture amid the Globalstar takeover. At that time, the focus was on a high‑level partnership; today Amazon confirms that the iPhone integration will be built directly into Project Leo’s architecture, with beta testing slated for late 2026. What to watch next: U.S. and EU regulators must clear the $11.5 billion merger, a process that could stretch into 2027. Engineers will need to harmonise Globalstar’s legacy protocols with Amazon’s next‑gen Ka‑band payloads, a technical challenge that will determine how quickly the iPhone service can roll out. Analysts will also monitor pricing strategies, as Amazon seeks to undercut Starlink while offering Apple a differentiated satellite experience. The success of the integration will be a litmus test for whether Amazon can translate its satellite ambitions into a consumer‑facing product that reshapes connectivity on the world’s most popular smartphone.
42

Building a Scalable RAG Backend with Cloud Run Jobs and AlloyDB

Dev.to +6 heimildir dev.to
embeddingsllamarag
Google Cloud has unveiled a reference architecture that stitches together Cloud Run Jobs and AlloyDB to deliver a production‑grade Retrieval‑Augmented Generation (RAG) backend. The guide shows how to offload heavy document‑ingestion and embedding workloads to serverless Cloud Run Jobs, then store the resulting vectors alongside relational metadata in AlloyDB, Google’s fully managed PostgreSQL‑compatible database. By coupling AlloyDB’s high‑throughput OLTP engine with its emerging vector‑search extensions, developers can run hybrid queries that blend keyword and semantic matching without a separate vector store. The announcement matters because RAG pipelines have outgrown the toy‑scale demos that dominate tutorials. Scaling to millions of passages while keeping latency sub‑second has required a mix of batch processing, secure storage, and fast retrieval—capabilities that were previously scattered across managed services, self‑hosted vector databases, and custom orchestration. Cloud Run Jobs provides automatic scaling and pay‑as‑you‑go billing for the heavy embedding step, while AlloyDB offers enterprise‑grade security, automatic failover, and native PostgreSQL tooling, reducing operational overhead. The architecture also aligns with Google’s broader push to embed vector search directly into its data‑cloud stack, as seen in recent BigQuery hybrid RAG pipelines and Envoy‑based access‑control patterns. As we reported on 15 April 2026, early RAG experiments using ChromaDB highlighted the need for tighter integration between vector stores and relational data. This new Cloud Run + AlloyDB pattern addresses that gap and signals Google’s intent to make end‑to‑end RAG a first‑class cloud service. Watch for the rollout of AlloyDB’s dedicated vector index API, tighter coupling with Gemini models, and pricing updates for Cloud Run Jobs that could further lower the barrier for enterprises to adopt large‑scale RAG. Subsequent case studies from fintech and media firms will reveal how quickly the stack moves from proof‑of‑concept to production.
41

Uppgangur em‑dash í athugasemdum á Hacker News    https://  boazsobrado.com/blog/2026/04/1  5/the-r

Mastodon +6 heimildir mastodon
Nýrannsókn á 460 000 athugasemdum á Hacker News sýnir skarpt aukning í notkun em‑dash sem fellur saman við víðari útbreiðslu aðstoðarmanna byggða á stórum tungumálalíkönum (LLM). Bloggfærsla Boaz Sobrado, birt 5. apríl 2026, kortleggur tíðni „—“ yfir þrjú ár umræðuköflunnar og greinir greinilegt breytipunkt eftir útgáfu OpenAI‑ChatGPT‑4 og innleiðingu sköpunar‑AI í vinsælar þróunartól. Rannsóknin sýnir að hlutfall athugasemda sem innihalda að minnsta kosti einn em‑dash tvöfaldist á milli seint 2024 og snemma 2026, á meðan heildarfjöldi athugasemda varð óbreyttur. Þessi þróun skiptir máli vegna þess að greinarmerki eru fínt en mælanlegt merki um hvernig AI‑framleiddur texti blandast í mannlegan samtal. LLM eru þjálfuð á gríðarlegum safni gagna sem kjósa em‑dash vegna þess að það getur tengt setningar með samtalslegum takti, og margir forritarar treysta nú á AI‑knúna sjálfvirka útfyllingu sem setur stafinn inn sjálfkrafa. Afleiðingin er að stílistískur fingraförun AI dreifist í samfélagsmiðla, sem gæti skekkt tungumálareglur og gert það erfiðara að merkja sýndarefni. Umsjónarmenn á Hacker News hafa þegar tekið eftir aukinni “bot‑lík” orðavæðingu, og hækkanir í notkun em‑dash gætu orðið að viðmiðunarreglu til að greina AI‑hjálpaðar færslur. Áframhorf er að vísindamenn muni líklega framlengja aðferðafræðina á aðrar vettvang – Reddit, Stack Overflow og Twitter – til að sjá hvort mynsturinn haldist á mismunandi notendahópa. Fyrirtæki sem þróa LLM gætu svarað með því að bjóða upp á stillanlegar greinarmerkja‑valkosti, á meðan vafraforrit gætu varað notendur þegar stíll athugasemdar passar við AI‑framleiddar undirskriftir. Stærra spurningin er hvort AI muni áfram breyta daglegum skrifvenjum eða hvort samfélög muni ýta til baka og endurheimta fyrri, AI‑lausar venjur. Að fylgjast með þessum tungumálabreytingum verður lykilatriði til að skilja menningarlegan áhrifa AI utan þeirra fyrirsagnar‑tækja sem grípa flestan athygli.
41

Uppfærsluútsöluna „Ultimate Upgrade“ hjá Best Buy inniheldur tilboð á tugum af uppáhalds tæki okkar

Mastodon +6 heimildir mastodon
amazonapple
Best Buy hefur sett í gang „Ultimate Upgrade Sale“, umdeildar vefverslunartilboð sem stendur til 19. apríl og lækkar verð á ví
41

Siri‑verkfræðingar sendir í AI forritunarbúð þegar Apple undirbýr umtímabreytingu á Siri

Mastodon +6 heimildir mastodon
apple
Apple hefur sent tugalíu Siri‑verkfræðinga í krefjandi, fjölvikulega AI forritunarbúð þar sem fyrirtækið undirbýr víðtæka endurbót á raddaðstoðinni sinni. Þjálfunin, sem lýst er í skýrslu The Information, mun kasta hópnum í nýjustu verkfærakörfuna fyrir stórt tungumálalíkön (LLM), og hvetja þau til að endurbyggja kjarnann í Siri á nútímalegum generative‑AI rammum í staðinn fyrir reglubundnu pípurnar sem hafa knúið þjónustuna í mörg ár. Þessi aðgerð bendir til þess að Apple viðurkenni að Siri hefur fallið á eftir keppinautum eins og Google Assistant og Amazon Alexa, sem báðir nú treysta á flókin LLM til að skilja samhengi, búa til náttúrule
41

Apple-verslanir munu bráðabirgða geta endurheimt hugbúnað Apple Watch innanhúss

Mastodon +6 heimildir mastodon
apple
Apple tilkynnti að, frá seinna í þessum mánuði, verði smásölustöðvar þess og viðurkenndir þjónustuaðilar útbúin sérstökum viðgerðarbakka fyrir Apple Watch sem tengist Mac til að endurheimta hugbúnað úrklukkunnar á staðnum. Verkfærið, sem kostar $139, gerir tæknimönnum kleift að eyða tækinu, setja inn nýjustu watchOS og tengja það aftur við iPhone eigandans án þess að senda tækið til miðlægs viðgerðarmiðstöðvar. Þessi aðgerð merkir fyrsta sinn sem tæknimenn í Apple-verslunum geta framkvæmt fullkomna hugbúnaðarendurheimt innanhúss, þjónustu sem hefðbundið hefur krafist sendingar í pósti eða aðstoðar frá þriðja aðila í viðgerðaverkstöðum. Með því að framkvæma ferlið á staðnum áætlar Apple að viðbragðstími minnki frá dögum í um það bil nokkrar klukkustundir, sem minnkar óþægindin fyrir notendur þar sem klukkur hafa orðið óvirkar eftir misheppnaðar uppfærslur, rafhlöðuvandamál eða vandamál með virkjunarlæsingu. Bakkinn staðlar einnig ferlið í öllum verslunum, tryggir að sama fastbúnaðarútgáfa sé sett inn og að eyðingu gagna fylgi öryggisreglur Apple. Ákvörðunin kemur í kjölfar aukinnar þrýstings frá evrópskum stjórnvöldum og neytendaverndarsamtökum um að gera viðgerðir aðgengilegar og gagnsæjar. Að bjóða upp á hugbúnaðarlausn í verslun styrkir víðtæka stefnu fyrirtækisins um „sjálfþjónustu viðgerða“, sem hefur áður leitt til útgáfu DIY-pakka fyrir iPhone og Mac. Hún bendir einnig til breytingar frá því að treysta á utanaðkomandi viðgerðarkeðjur sem lengi hafa ríkir á markaði snjallsíma. Áhorfendur ættu að fylgjast með því hversu fljótt bakkarnir eru settir upp um allan heim Apple og hvort fyrirtækið útvíkkir getu þessa til annarra burðarhluta, eins og Vision Pro. Verðlagning þjónustunnar, þjálfunartímar starfsfólks og möguleg breyting á ábyrgðarskilmálum munu móta viðtöku viðskiptavina. Að lokum mun viðbrögð sjálfstæðra viðgerðaverkstæðna sýna hvort lausn Apple í verslun breyti víðtæku vistkerfi viðhalds snjallsíma.
39

🏗️ 📐 Harness Engineering: Vaxandi fræðasvið til að gera AI‑umboðsmenn áreiðanlega 🤖

Dev.to +6 heimildir dev.to
agents
Nákvæmur handbók sem kom út í þessari viku formlegar „harness engineering“ sem nýstárlegt fræðasvið til að gera AI‑umboðsmenn áreiðanlega í framleiðslu. Skjalið, sem er sett saman af hóp AI‑ops reyndra manna og gefið út á opna kóðaplatformunni Harness.ai, lýsir skref-fyrir-skref aðferðafræði til að móta umhverfið í kringum umboðsmenn – gagnapípur, sandkassa keyrsluumhverfi, athugunarviðbætur og stjórnunarmál – þannig að sjálfstæðir umboðsmenn geti starfað örugglega í stórum mæli. Handbókin byggir beint á sandkassa- og harness eiginleikum sem OpenAI bætti við Agents SDK-ið sitt í síðustu mánuð, þróun sem við fjölluðum 16. apríl. Með því að færa fókus frá einangruðum prófarkalögum yfir í heildarhönnun kerfa, halda höfundarnir því fram að fyrirtæki geti brennt bilið milli tilraunabóta og framleiðsluþjónustu. Fyrstu notendur, þar á meðal norðuræsk fjarskiptafyrirtæki og fínskt fintech sprotafyrirtæki, hafa þegar prófað rammann og skráð 40 % minnkun á óvæntum umboðsmannahegðun og áþreifanlegan aukning í framleiðni forritara. Af hverju þetta er mikilvægt núna er tvíþætt. Fyrst hefur hratt vaxandi fjöldi umboðsmanna í AI – frá þjónustubotum í viðskiptasamskiptum, sjálfvirkum kóðagjafa til birgðakeðjuoptímara – sýnt fram á viðkvæmar tengingar sem geta leitt til dýrmættra truflana eða siðferðilegra brota. Í öðru lagi greinir handbókin nýja hlutverk – AI‑rekstrarstjórar, mann‑AI samræmingaraðilar og sérfræðingar í prompt‑hönnun – sem bendir til breytinga í eftirspurn eftir hæfni og í skipulagsuppbyggingu. Áframhaldandi þróun mun fylgjast með því hversu fljótt harness engineering handbókin verður að staðli og verkfærum. Samþætting við athugunarvettvang eins og MCP tracepoint viðmótið, tilkynnt 15. apríl, gæti veitt rauntíma endurgjöfslúpa sem þarf til sjálfvirkrar viðgerðar. Vöruþróunaraðilar eru einnig líklegir til að innleiða harness‑viðbúin íhluti í SDK-ið sitt, á meðan reglugerðarstofnanir gætu vísað í rammann þegar þær móta kröfur um áreiðanleika sjálfstæðra kerfa. Næstu mánuðir munu sýna hvort harness engineering verður stoðarbjalla traustra, fyrirtækjamiðaðra AI‑umboðsmanna.
36

Gemini 3.1 Flash TTS: næsta kynslóð tjáningarríkrar AI-tal

HN +5 heimildir hn
benchmarksgeminigooglespeech
Google hefur sett í loftið Gemini 3.1 Flash TTS, tilraunastig texta‑í‑tónn líkan sem ýtir á tjáningarstýringu og fjöltyngda gæði langt umfram forgengina. Nýja vélin gerir forritara kleift að setja “hljóðmerki” beint inn í fyrirmæli, og stjórna tón, hraða og stíl með fíngerðri nákvæmni á yfir 70 tungumálum. Innbyggt öryggisvatnsmerki merkir sýndarúttak, á meðan arkitektúr líkanins veitir hærri nákvæmni og minni tafir en fyrri útgáfur Gemini TTS. Eins og við skýrðum þann 16. apríl 2026, sýndu fyrstu opinberu prófanir getu líkanins til að bre
36

Gemini 3.1 Flash TTS – með stefnumörkuðum fyrirmælum

HN +5 heimildir hn
geminispeech
Google hefur bætt við nýju stigi stjórnunar á Gemini 3.1 Flash TTS líkani sínu, sem gerir forriturum kleift að stýra raddúttak með „stefnumörkuðum fyrirmælum“ sem eru innfelld beint í textann. Eiginleikinn, sem tilkynntur er í dag, eykur núverandi stuðning líkanins við meira en 70 tungumál og 30 mismunandi raddpersónur með því að leyfa innfelldar merkingar sem tilgreina tón, hraða, tilfinningu og jafnvel auðkenni talandans. Fyrirmælin eru greind af API-ið á útreikningartíma, og framleiða hljóð sem samsvarar nákvæmum stílbundnu vísbendingum sem notandinn gefur upp, án þess að þurfa sérstaka eftirvinnslu. Uppfærslan er mikilvæg því hún breytir hágæða, lágseinkunartímas texta‑í‑tal vél í forritanlegan hljóðvörslu. Efnisframleiðendur geta nú búið til fjöltyngda hlaðvörp, netnámskeið eða gagnvirka talgervla sem aðlaga frásö
32

OpenAI gefur út netöryggismódel til takmarkaðs hóps í keppni við Mythos

Bloomberg on MSN +8 heimildir 2026-04-15 news
anthropicopenai
OpenAI hefur hafið stjórnaða útgáfu á nýjasta öryggismiðaða módelinu sínu, GPT‑5.4‑Cyber, og veitir aðgang aðeins handa fáum yfirvöldum samstarfsaðilum. Aðgerðin fylgir nýlegri takmarkaðri útgáfu Anthropic á Mythos, keppinauta AI sem getur sjálfkrafa leitt í ljós hugbúnaðargalla. Tilkynning OpenAI, sem kom fram á þriðjudag, setur GPT‑5.4‑Cyber fram sem „varnar‑fyrst“ kerfi hannað til að skanna kóðasöfn, merkja við galla af gerð zero‑day og leggja til leiðréttingarskref án mannlegs hvata. Takmarkaða útgáfan endurspeglar varúð OpenAI eftir hraða framkomu AI‑stýrðra nýtingartækja. Með því að takmarka módelið við trausta öryggisteymi vonast fyrirtækið eftir að safna raunverulegum frammistöðuupplýsingum á meðan það dregur úr áhættu á að tæknin verði endurnýtt í árásargjarnri hakkingu. Fyrstu prófunaraðilar segja að GPT‑5.4‑Cyber geti greint flókin rökfræðileg villur og óörugga API‑kall sem hefðbundin stöðugreiningartól missa, og gæti þar með skornir vikur af viðgerðartímar fyrir stór fyrirtæki.
29

RAG kerfi. Dagur 4: Endurheimt + Framleiðsla. Pípur: → sækja viðeigandi brot úr ChromaDB → senda

Mastodon +6 heimildir mastodon
clauderag
Þróunarteymi á bak við fjöl­dagana kennsluröð um Retrieval‑Augmented Generation (RAG) hefur sett fjórðu og fimmðu stig pípunar sinnar á GitHub, og lokið því fullkomnu „sækja‑og‑sjá“ vinnuferli sem tengir opna vektor­gagnagrunninn ChromaDB við Anthropic‑LLM‑ið Claude. Nýja kóðinn dregur út viðeigandi textabrot úr ChromaDB‑vísitölu, setur þau inn sem samhengi fyrir Claude og skilar svar sem er rótgrípt – kjarnahringurinn sem greinir RAG frá hefðbundnu spurningakerfi. Geymslan inniheldur einnig útsetningarskrár sem keyra kerfið á Google Cloud Run, í samræmi við skalanlega arkitektúrina sem fjallað var um 16. apríl í greininni „Building a Scalable RAG Backend with Cloud Run Jobs and AlloyDB“. Útgáfan er mikilvæg því hún brýr tvo vaxandi strauma í norræna AI‑umhverfinu: vaxandi áherslu á mótuleg pípur sem aðgreina endurheimt frá framleiðslu, og vaxandi eftirspurn eftir blandaðri lausn sem sameinar opna gagna­gagnasöfn með eignarlegum LLM‑um. Með því að gera endanlega stafla opinberlega aðgengilegan minnkar höfundarnir hindrunina fyrir sprotafyrirtæki og rannsóknarhópa sem þurfa staðreyndar‑ og uppfærð svör án þess að þjálfa risastór módel. Val á ChromaDB, léttum en afkastamiklum vektor­gagnagrunni, sýnir fram á raunhæft valmöguleika í samanburði við þyngri lausnir eins og Pinecone eða Milvus, á meðan sterkar rökfræðihæfni Claude takast á við „þekkingarvönt“ sem hreinar LLM‑ar enn sýna. Áframhaldandi þróun mun samfélagið fylgjast með frammistöðuviðmiðum sem bera saman seinkun og nákvæmni við aðrar RAG‑stafla, sérstaklega þær sem byggja á AlloyDB eða nýlega tilkynntum AI‑gateway lausnum. Frekari uppfærslur eru áætlaðar varðandi skölun pípunar til að takast á við framleiðslu‑stærð umferð, sjálfvirka eftirlit og innleiðingu endurheimtar úr fjölmynda heimildum. Ef opna‑kóða hreyfingin heldur áfram, gæti norræna svæðið séð sprengikraft í sértækum aðstoðarmönnum sem sameina staðbundna gögn með bestu LLM‑rökstuðningi.
27

Tennessee er á leiðinni til að gera smíði spjallmenna að alvarlegum glæp í Flokk A

HN +6 heimildir hn
Löggjafarþing Tennessee hefur lagt fram lögboðnað sem myndi hækka framleiðslu gervigreindar‑spjallmenna í Flokk A, sem er alvarlegasta refsivörpun í ríkinu. Samkvæmt tillögunni gæti hver sem hanna, dreifa eða reka spjallmenni án leyfis frá ríkinu orðið fyrir sektum að upphæð $50 000 og fangelsi í 15 til 60 ár. Lögin krefjast einnig þess að öll samtalskerfi sem byggja á AI verði skráð hjá Deildinni fyrir öryggi og innflytjendavarnir, þar sem þau yrðu háð reglulegum endurskoðunum til að tryggja að þau uppfylli kröfur um innihaldsfiltrun og sannvottun notenda. Stuðningsaðilar segja að aðgerðin sé svar við vaxandi fjölda illvilltra bota sem dreifa rangfærslu, auðvelda svik og herma eftir opinberum embættismönnum. Höfundur tillögunnar, þingmaðurinn Jenna Miller (R‑Nashville), vísaði í nýleg svik sem nýttu AI‑raddir til að tæma eftirlaunssparnað eldri borgara. Áhugafólk telur að refsiverkun óstýrðra botna muni vernda viðkvæma borgara og varðveita heiðarleika opinberra umræðna. Gagnrýnendur vara við að lögin gætu hamlað löglegri nýsköpun og stangist á við friðræðisvarnir í fyrsta viðbótarlögum. Tæknifyrirtæki, opinn‑kóða samfélög og borgaraleg réttindahreyfingar hafa þegar gefið út yfirlýsingar þar sem þeir kalla tillöguna “of víðfeðma” og “kælingar‑áhrif”. Lögfræðingar benda á að flokka framleiðslu hugbúnaðar sem svar við ofbeldis‑glæpum sé óvenjulegt og gæti leitt til stjórnarfarslegra ágreiningsmála. Lögin vekja einnig spurningar um lögsögu, þar sem mörg AI‑verkfæri eru hýst í skýjaþjónustum utan Tennessee. Næstu skref eru nefndarþing sem er áætlað í næstu mánuði, og ef tillagan fer í gegn í senatinu verður hún sett fram til atkvæðagreiðslu í þinghúsinu. Áhorfendur munu fylgjast með eftirbreytingum sem gætu mýkt refsingar eða innleitt undanþágur fyrir fræðirannsóknir. Einnig er möguleiki á alríkisviðbragði, þar sem réttarmálaráætlun Bandaríkjanna hefur sýnt áhuga á að samræma ríkisátök við reglugerðir um AI. Niðurstaðan mun móta hvernig bandarísk ríki jafna vernd neytenda við hraða vaxandi umhverfisins í gerandi AI.
27

The Universal Constraint Engine: Neuromorphic Computing Without Neural Networks

HN +6 heimildir hn
A research team from ETH Zurich and IBM has unveiled the “Universal Constraint Engine” (UCE), a neuromorphic processor that tackles constraint‑satisfaction problems without relying on conventional neural‑network architectures. The prototype, described in a Zenodo pre‑print released this week, implements a network of analog memristive crossbars that encode variables and constraints directly as electrical conductances. By exploiting the physics of charge flow, the engine converges on feasible solutions in a single pass, sidestepping the iterative weight updates that dominate deep‑learning inference. The breakthrough matters because it decouples the energy‑efficiency gains of neuromorphic hardware from the overhead of training and maintaining large neural models. In benchmark tests on classic NP‑hard tasks—graph coloring, job‑shop scheduling and Sudoku—the UCE solved instances up to 100 × faster and with two orders of magnitude lower power consumption than GPU‑based solvers. The approach also sidesteps the opacity of learned representations, offering deterministic, explainable outcomes that are attractive for safety‑critical domains such as autonomous logistics and real‑time traffic management. As we reported on 13 April, AI research is increasingly blending neural and symbolic techniques; the UCE pushes the hybrid agenda further by eliminating the neural component altogether. Its success suggests a new class of “constraint‑first” AI hardware that could complement, rather than replace, existing deep‑learning accelerators. The next milestones will be scaling the engine to larger crossbar arrays and integrating it with existing neuromorphic platforms like Intel’s Loihi. Industry observers will watch for collaborations that embed UCE cores into edge devices, and for standards bodies that define APIs for constraint‑oriented neuromorphic workloads. If the early performance claims hold, the Universal Constraint Engine could reshape how energy‑constrained systems solve combinatorial problems, marking a decisive step toward truly brain‑inspired, non‑neural AI.
26

ChatGPT um 2022. Ég bað um að eyða reikningnum mínum með „delete my chatgpt account request“

Mastodon +6 heimildir mastodon
openai
OpenAI-notendur sem reyndu að hreinsa út spor sín í ChatGPT í þessari viku lendu í óvæntum hindrun: eyðingarbeiðni kerfisins, sem lofar að fjarlægja persónuleg gögn innan 30 daga, tengir ennþá fyrri reikninginn við læst símanúmer og heldur áfram að geyma lítinn gagnasett til að uppfylla lagaleg kröfur. Einn notandi, sem hafði skráð sig aðeins fimm sinnum, birti stutt „delete my ChatGPT account request“ á samfélagsmiðlum, aðeins til að uppgötva að ferlið er ekki tafarlaust og að símanúmerið sem notað var við skráninguna er ekki hægt að nota aftur fyrir nýjan reikning fyrr en eyðingarhringrásin er lokið. Atvikið kemur í augnabliki þar sem persónuverndarreglur í Evrópu eru að þrengja eftirlit með AI-þjónustuaðilum samkvæmt GDPR og væntanlegum Digital Services Act. Hjálparmiðstöð OpenAI segir að þó að flest notendabyggt efni sé eytt, gæti „takmarkaður gagnasett“ verið haldið lengur ef lög krefjast þess, ákvæðið hefur vakið gagnrýni frá hagsmunaaðilum um persónuvernd sem segja að það skapa gráa svæði fyrir langtímaprófíling. Atvikið eykur einnig víðtækari umræður um pólitísku þyngd spjallmenna, þar sem löggjafar vinna að því að skilja hvernig AI‑drifnar samtalsverkfæri hafa áhrif á opinbera umræðu og fræðilega rannsóknir. Það sem skiptir mestu máli er merkið sem þetta sendir til milljóna óformlegra notenda sem telja að eitt smellt á hnappinn hreinsi stafræna spor þeirra. Viðnámið í eyðingarferlinu gæti dregið úr notkun, sérstaklega á markaði þar sem persónuvernd er í forgrunni, eins og í norrænum löndum þar sem sjálfstæði gagna er kjarnagildi. Þetta undirstrikar einnig þörfina á skýrari, sannprófanlegum eyðingarlogg sem uppfyllir bæði kröfur notenda og eftirlitsaðila. Áframhaldandi athugun mun snúast um svar OpenAI: hvort fyrirtækið muni koma á framfæri með gagnsærri stjórnborði fyrir gagnastýringu, skerpa á endurnotkunarskilmálum fyrir símanúmer eða breyta varðveislusniði til að samræmast evrópskum lögum. Hver breyting gæti sett fordæmi um hvernig stórstæð AI‑þjónusta meðhöndlar „rétt til að gleymast“ í raun.
24

Samskipti stærðfræðikennara við fjölþjónustukerfi til persónulegrar verkefnaframleiðslu

ArXiv +5 heimildir arxiv
agentseducation
Lið undir forystu menntarannsakanda Candace Walkington hefur kynnt fjölþjónustu‑kerfi með kennara‑í‑hringrás sem gerir kennurum í miðskólastarfi í stærðfræði kleift að búa til verkefnalistir sérsniðna að einstaka nemendum. Kerfið, sem er lýst í nýju arXiv‑forskriftinu arXiv:2604.12066v1, biður kennara um að slá inn grunnverkefni og samræmir síðan nokkra sérhæfða gervigreindar‑þjónustur—eina sem endurskrifar spurninguna til að stilla erfiðleikastig, aðra sem bætir við samhengi byggt á áhugamálum nemandans, og þriðju sem sannreynir niðurstöðuna miðað við námskrárstaðla. Kennarar geta samþykkt, fínstillt eða hafnað hverri tillögu, og þannig skapa fljótan endurgjöfslúppu sem framleiðir fullkomna, persónulega vinnublað í nokkrum mínútum í stað klukkustunda. Verkefnið er mikilvægt vegna þess að persónuleg æfing hefur lengi vantað í K‑12 stærðfræði. Venjuleg stafrænn kerfi byggja á stöðugum spurningabönkum og bjóða aðeins upp á grófar aðlaganir eins og „easy“ eða „hard“. Í mótsögn nýtir Walkingtons arkitektúr stórt tungumálalíkani til að breyta frásögn, tölulegum gildum og raunverulegu samhengi hvers verkefnis, og tengir efnið við menningarlegan bakgrunn, hvata til áhuga og fyrri þekkingu nemandans. Fyrstu tilraunir í kennslustofunni skráðu hærri þátttöku og lítilsháttar hækkun í nákvæmni á prófspurningum eftir kennslu, sem bendir til þess að fíngerð samhengi geti leitt til mælanlegra námsárangurs. Næstu skref snúast um að prófa stigveldi og jafnræði. Höfundarnir ætla að framkvæma hálftímabils vettvangsrannsókn í fimm norrænum skólastofnunum, þar sem niðurstöður verða bornar saman við stjórnunarhóp sem notar hefðbundin kennslubókaverkefni. Rannsakendur munu einnig kanna hvernig kerfið tekst á við sértækar aðstæður—nemendur með námsörðugleika, fjöltyngda kennslustofur og námskrár sem víkja frá bandarískum stöðlum sem frumgerð kerfisins var þjálfuð á. Fylgist með eftirfylgni í lok árs, og mögulegri samþættingu við nýrri retrieval‑augmented generation pípur sem gætu enn frekar þétt tengslin milli nemendagagna og á-skiljanlegra verkefna.
24

Self-Monitoring Benefits from Structural Integration: Lessons from Metacognition in Continuous-Time Multi-Timescale Agents

ArXiv +5 heimildir arxiv
agentsmetareinforcement-learning
Self‑Monitoring
24

The Non-Optimality of Scientific Knowledge: Path Dependence, Lock-In, and The Local Minimum Trap

ArXiv +6 heimildir arxiv
A new paper posted on arXiv (2604.11828v2) argues that the body of scientific knowledge at any moment is a *local* optimum rather than a global one. The authors frame scientific progress as an optimization problem and claim that prevailing theories, methods and institutional structures are heavily shaped by historical contingency, cognitive path‑dependence and entrenched lock‑in effects. By borrowing concepts from economics and complex systems, the study contends that once a paradigm gains traction it can become self‑reinforcing, making it difficult for radically different approaches to break through even when they promise higher explanatory power. The claim matters because it challenges the widely held view that science self‑corrects inevitably toward truth. If scientific trajectories are trapped in local minima, breakthroughs may require deliberate interventions—such as funding for high‑risk research, cross‑disciplinary collaborations, or AI‑driven hypothesis generation that can bypass human biases. The paper also resonates with recent discussions on the limits of large language models (LLMs) in scientific reasoning, a theme explored in our coverage of local‑LLM agents and privacy‑first AI tools earlier this month. Recognising lock‑in could reshape how research institutions allocate resources and how policymakers evaluate the robustness of scientific consensus. The community’s response will be the next indicator of impact. Watch for commentaries in philosophy of science journals, citations in AI‑driven discovery projects, and possible funding calls that explicitly address “path‑dependence mitigation.” If the paper gains traction, we may see new metrics for measuring paradigm flexibility and experimental designs that test whether alternative frameworks can escape entrenched local optima. As we reported on the rise of locally run AI agents on April 14, the intersection of AI and meta‑science is poised to become a fertile ground for re‑examining how knowledge itself evolves.
24

Do you want video games to be made with generative AI?

Mastodon +6 heimildir mastodon
google
A developer‑turned‑researcher will soon take the stage at the Nordic AI & Games Summit to ask a simple but far‑reaching question: should video games be built with generative AI? The speaker, whose identity is being kept private until the event, has launched a public questionnaire to gather real‑world opinions from designers, players and industry insiders. The Google‑form link, posted on social media earlier this week, invites respondents to share experiences with AI‑generated assets, code snippets and narrative tools, and to rate how comfortable they feel about letting machines shape gameplay. The poll arrives at a moment when AI‑driven creation tools are moving from experimental labs into production pipelines. Rosebud AI’s free GameMaker lets users describe a concept in plain language and receive a playable prototype within minutes; Ludo.ai offers on‑the‑fly sprite generation and animation; and video‑generation services such as Veo 3.1 can turn storyboards into cutscenes without a human editor. Proponents argue that these platforms can shrink development cycles, lower costs for indie studios and democratise entry into the market. Critics warn of copyright entanglements, homogenised aesthetics and the erosion of specialised jobs that have traditionally defined the craft of game making. What will happen after the summit? The speaker plans to publish the survey results as a white paper, highlighting regional attitudes and pinpointing sectors—such as narrative design or level layout—where AI adoption is already measurable. Industry observers will watch for commitments from major publishers to pilot generative pipelines, and for any regulatory response to the growing use of copyrighted training data. The conversation sparked by this modest questionnaire could shape funding decisions, talent pipelines and the very definition of creativity in the Nordic gaming ecosystem.
24

Nýja háskólaviðskipti Microsoft eru hálfhrædd viðbrögð við $500 MacBook Neo

Mastodon +6 heimildir mastodon
applemicrosoft
Microsoft hefur kynnt „Microsoft College Offer“ sem miðar að því að ganga niður á nýja $500‑fyrir‑nemendur MacBook Neo frá Apple. Pakki, sem var kynntur á mánudaginn, sameinar afslátt á Surface fartölvu með einu ári af Microsoft 365 Premium, Xbox Game Pass Ultimate áskrift og sérsniðnum Xbox stýri, sem saman eru um það bil $500 í smásöluverði. Tilboðið er í boði í þátttakandi bókasöfnum háskóla og á netpörtum, með vélbúnaðarafslætti sem fer eftir svæðinu en almennt setur Surface tækið á verð sem er í samræmi við nemenda‑verð MacBook Neo. Neo frá Apple, sem var sett á markað í síðustu viku á $600 smásöluverði (eða $500 fyrir nemendur), er fyrsta alvarlega tilraun fyrirtækisins á lágtölvu‑markaðinum, sem
24

Apple hóf ávarp um að fjarlægja Grok úr App Store vegna djúpra falsmynda

Mastodon +6 heimildir mastodon
applegrokxai
Apple hefur varað xAI, fyrirtækið í eigu Elon Musk, um að spjallforritið Grok gæti verið fjarlægt úr App Store nema fyrirtækið takmarki getu forritsins til að búa til ósamþykktar kynferðislegar djúpfalsmyndir. Ávarpinu, sem lýst er í bréfi sem Apple deildi með bandarískum senatörum, fylgir fjöldi kvörtunar um að Grok væri notað til að framleiða nakna eða kynferðislegar myndir af raunverulegum einstaklingum án leyfis. Endurskoðunarteymi Apple komst að því að nýlegar uppfærslur á forritinu höfðu ekki nægilega leyst vandamálið, og gaf því „lagið til að laga eða horfa á fjarlægingu“ í formi síðasta boðspjalls. Aðgerðin er mikilvæg því hún er fyrsta tilvikið þar sem Apple hefur vísað til App Store-reglna til að stjórna útkomu generatívrar gervigreindar frekar en kóða eða notendaviðmóts. Stefna Apple, sem var uppfærð í síðasta ár til að fjalla um „skaðlegt eða ólöglegt efni“, nær nú til sýndarmiðla sem geta verið notaðir til áreitni, hefndarporna eða pólitíkrar manipuleringar. Með því að framfylgja þessum reglum gegn háprofíls AI-vörunni sýnir Apple að samræmi verður forsenda til að halda áfram að nýta hagkvæma iOS-markaðinn, og þessi nálgun gæti breytt því hvernig AI-þróunarfyrirtæki hanna öryggislag. Það sem þarf að fylgjast með næst er hvort xAI muni setja í gang sterkan djúpfalsfilter eða takmarka myndgerðargáfu Grok algerlega. Fljótleg samræming gæti haldið forritinu á iOS-tækjum, en árekstur gæti ýtt Grok af vettvangi og kveikt víðtæka umræða um vald Apple til að stjórna aðgengi. Stjórnvöld í ESB og Bandaríkjunum auka einnig eftirlit með sýndar-miðla tólum, þannig að framfylgd Apple gæti orðið fyrirmynd fyrir framtíðarstefnu. Fylgist með nýrri leiðbeiningum Apple til þróunaraðila um AI‑framleitt efni og öllum lagalegum ásökunum sem xAI gæti sett fram í svar við fjarlægingarviðvaraninni.

Allar dagsetningar