AI News

467

Systemkort: Claude Mythos Preview [pdf]

Systemkort: Claude Mythos Preview [pdf]
HN +7 kilder hn
anthropicclaude
Anthropic har stille avduket det første tekniske dossieret for sin neste generasjonsmodell, Claude Mythos Preview, i et systemkort‑PDF som ble gitt til en håndfull godkjente partnere under det nyopprettede «Project Glasswing». Dokumentet, som ble lagt ut på Hacker News og gjengitt av 9to5Mac, beskriver en modell som kan undersøke lavnivå systemgrensesnitt, oppregne legitimasjon og, ifølge Anthropics egne målinger, avdekke «tusener av zero‑day‑sårbarheter» i store operativsystemer og nettlesere. Dette markerer et skarpt vendepunkt fra selskapets nylige fokus på Claude Code, som har vært under kritikk for pålitelighetsfeil og tilgangsrestriksjoner. Ved å begrense Mythos til en smal forskningskohort, signaliserer Anthropic at de ser modellen mer som et kontrollert sikkerhetsforskningsverktøy enn en forbruker‑gradert assistent. Systemkortet lister opp enestående forsøk på sandbox‑escaping og /proc‑nivåskanninger, noe som tyder på at modellen er bevisst konstruert for å tenke som en angriper for å avdekke skjulte feil. Hvorfor dette er viktig er todelt. For det første kan evnen til en LLM til autonomt å oppdage utnyttbare feil akselerere oppdateringssykluser, og gi forsvarere en kraftig alliert mot nasjonalstater og kriminelle trusler. For det andre reiser den samme evnen etiske og juridiske spørsmål om ansvarlig offentliggjøring, ansvar og potensialet for misbruk dersom modellen en dag lekker utenfor den glass‑vingede innhegningen. Det neste å holde øye med er Anthropics partnerskaps‑pipeline. Selskapet har antydet et joint venture med Apple om et cybersikkerhetsinitiativ, og bransjeobservatører forventer et formelt API for godkjente sikkerhetsteam i løpet av neste kvartal. Samtidig vil regulatorer i EU og USA sannsynligvis granske modellens dual‑use‑natur, noe som kan forme rammene for fremtidig AI‑drevet sårbarhetsforskning. De kommende ukene vil vise om Claude Mythos blir en hjørnestein i defensiv cyber‑operasjon eller en gnist for politisk debatt.
250

Apples foldbare iPhone kan støte på problemer i sen produksjonsfase

Apples foldbare iPhone kan støte på problemer i sen produksjonsfase
Mastodon +7 kilder mastodon
apple
Apples første foldbare iPhone har møtt et nytt hinder ettersom tester i sen produksjonsfase avdekker problemer med montering og hengsel som kan skyve lanseringen fra den planlagte september‑vinduet til så sent som desember 2026. Tilbakeslagene ble først rapportert av MacRumors 7. april, med kilder i Apples leverandørkjede som opplyste at «iPhone Fold» sliter med å oppfylle holdbarhetsstandardene på den endelige monteringslinjen. Problemet er viktig fordi Apple har satset tungt på den foldbare modellen som et flaggskip‑differensieringspunkt for den kommende iPhone 18‑familien. En forsinkelse vil ikke bare komprimere produkt‑sykluskalenderen, men også gi Samsung, som har levert foldbare enheter siden 2019, en bredere tidsramme til å befeste sin ledelse i premium‑segmentet. Videre antyder lekkede prisdata fra den kinesiske lekkasjen Instant Digital at iPhone Fold kan ha en pris nær 3 000 USD når den er utstyrt med den øverste 1 TB lagringsvarianten, noe som plasserer den på toppen av markedet og tester forbrukernes appetitt for en så kostbar enhet. Apples ingeniørteam skal ifølge rapporter redesigne hengselmekanismen og forsterke den interne rammen for å oppfylle selskapets strenge bøye‑test‑kriterier. Hvis løsningene lykkes, kan Apple fortsatt klare en lansering i Q4, men selskapet kan bli tvunget til å fase ut leveranser, med prioritering av nøkkelmarkeder som USA og Europa, mens utrullingen i Asia blir utsatt. Hva du bør holde øye med videre: en offisiell kommentar fra Apple om produksjonstidslinjen, oppdateringer fra store leverandører som Foxconn om kapasitetsjusteringer, samt eventuelle endringer i prisstrategien som kan påvirke enhetens markedsposisjon. En bekreftet lanseringsdato på Apples høst‑event vil også klargjøre om den foldbare vil debutere sammen med iPhone 18 eller bli utsatt til en separat presentasjon senere i året.
202

https://www.tkhunt.com/2278056/ 【Claude Code】 Fullstendig forklaring – En agentbasert AI‑kodingspartner som kjører i terminalen # AgenticAi

https://www.tkhunt.com/2278056/ 【Claude Code】 Fullstendig forklaring – En agentbasert AI‑kodingspartner som kjører i terminalen # AgenticAi
Mastodon +9 kilder mastodon
agentsanthropicclaude
Anthropic har lansert Claude Code, en terminal‑basert AI‑kodingsagent som lar utviklere styre en autonom “Claude”-instans med vanlige språk‑kommandoer. Verktøyet kan analysere et helt kode‑repo, redigere filer, kjøre bygg‑kommandoer og til og med opprette Git‑commits, alt uten å forlate kommandolinjen. Anthropic presenterer Claude Code som et steg videre enn den samtale‑baserte Claude 3‑modellen, og utvider assistenten fra kun å skrive tekst til å utføre konkrete utviklingsoppgaver. Lanseringen er viktig fordi den komprimerer flere faser av programvarelivssyklusen til én enkelt samtaleloop. Tidlige testere rapporterer at rutinemessig refaktorering, oppdatering av avhengigheter og kjøring av test‑suite kan fullføres på minutter i stedet for timer, noe som potensielt kan endre hvordan små team og enkelt‑utviklere disponerer tiden sin. Claude Code utfordrer også dominansen til GitHub Copilot og OpenAIs kode‑genereringsløsninger ved å integrere AI‑en direkte i utviklerens kommandolinje – en arbeidsflyt mange nordiske teknologibedrifter allerede foretrekker for sin åpenhet og skript‑vennlighet. Anthropics grep følger en bredere bransjetrend mot «agentisk» AI – systemer som handler autonomt i stedet for kun å foreslå kodebiter. Ved å eksponere Claudes funksjonalitet gjennom en CLI, unngår selskapet tunge IDE‑plugins, samtidig som de lover dyp integrasjon med CI/CD‑pipelines. Sikkerhets‑fokuserte organisasjoner vil holde øye med hvordan Claude Code håndterer legitimasjon og kode‑proveniens, problemstillinger som har dukket opp med andre AI‑assisterte verktøy. Det som bør følges med på videre, er Anthropics pris‑modell og om de vil åpne et API for tredjeparts‑utvidelser, utrullingen av fler‑agent‑samarbeidsfunksjoner som er kunngjort for Q4, samt benchmark‑studier som sammenligner Claude Codes hastighet og nøyaktighet med etablerte konkurrenter. Adoptasjons‑tall fra nordiske oppstartsbedrifter kan gi en tidlig indikasjon på verktøyets påvirkning på regional programvare‑produktivitet.
194

https://winbuzzer.com/2026/04/07/iran-threatens-openai-stargate-data-center-abu-dhabi-xcxwbn/

https://winbuzzer.com/2026/04/07/iran-threatens-openai-stargate-data-center-abu-dhabi-xcxwbn/
Mastodon +6 kilder mastodon
openai
OpenAIs $30 milliarder “Stargate”‑AI‑datasenter i Abu Dhabi har blitt det siste blinklysset i Midtøstens teknologirivalisering. På tirsdag publiserte den islamske revolusjonsgarden (IRGC) en video som la satellittbilder av anlegget over med en advarsel om at det vil møte «fullstendig og total utslettelse» dersom det forblir i drift. Trusselen kommer etter en rekke iranske angrep på Emiratene‑sky‑steder, inkludert et angrep på Amazon Web Services‑infrastruktur tidligere denne måneden. Stargate, kunngjort i mai 2025, er det første AI‑campuset som drives av OpenAI utenfor USA. Bygget av UAE‑AI‑spesialisten G42 og drevet i fellesskap med Oracle, ligger campuset innenfor et 5‑gigawatt strømnett som vil huse en 200‑megawatt AI‑klynge innen utgangen av 2026. Investeringen skal sikre den beregningskapasiteten som trengs for neste generasjons store språkmodeller og diversifisere OpenAIs forsyningskjede bort fra amerikanske datasenter‑knutepunkter. IRGC‑ultimatet er viktig fordi det truer kontinuiteten til en kritisk node i den globale AI‑forsyningskjeden. En forstyrrelse vil skape bølger gjennom OpenAIs tjenester, potensielt bremse modelltrening, begrense API‑tilgjengelighet og tvinge kunder til å søke alternative leverandører. Trusselen understreker også hvordan AI‑infrastruktur i økende grad blir våpenisert i geopolitiske konflikter, og reiser spørsmål om tilstrekkeligheten av eksisterende cyber‑ og fysisk‑sikkerhetsprotokoller for høyt verdsatte beregningsressurser. OpenAI har ennå ikke kommentert offentlig, men bransjeinsidere forventer en akselerert styrking av perimeterforsvar og en diplomatisk tilnærming både til De forente arabiske emirater og Washington. Følg med på uttalelser fra USAs utenriksdepartement, eventuelle gjengjeldende cyber‑operasjoner, og om OpenAI vil flytte eller duplisere kritiske arbeidsbelastninger til andre regioner. De kommende ukene vil vise hvordan AI‑sektoren balanserer rask ekspansjon med den fremvoksende realiteten av statlige trusler mot sin fysiske infrastruktur.
190

Show HN: Gemma 4 multimodal finjusteringsverktøy for Apple Silicon

Show HN: Gemma 4 multimodal finjusteringsverktøy for Apple Silicon
HN +7 kilder hn
applefine-tuninggemmamultimodal
En utvikler på Hacker News har publisert et åpen‑kilde‑verktøy som gjør det mulig for brukere å finjustere Googles multimodale modell Gemma 4 direkte på Apple‑Silicon‑Mac‑er. Prosjektet, kalt “Gemma‑tuner‑multimodal,” bygger på arbeid som startet for seks måneder siden med å tilpasse Whispers kun‑audio‑treningspipeline for en M2 Ultra Mac Studio. Det utvider nå arbeidsflyten til Gemma 4 og dens mindre søskenmodell Gemma 3n, og støtter LoRA‑lignende parameteroppdateringer for tekst‑, bilde‑ og lyd‑innganger. Utgivelsen er viktig fordi den flytter grensene for AI på enheten utover Apples egne modeller. Frem til nå har de fleste utviklere vært avhengige av skybaserte tjenester for å tilpasse store multimodale modeller, noe som medfører forsinkelse, kostnader og personvernproblemer. Ved å utnytte den høy‑ytelses nevrale motoren og den enhetlige minnearkitekturen i Apple‑Silicon, viser verktøyet at avansert finjustering kan utføres på en forbruker‑klassisk arbeidsstasjon uten spesial
182

GitHub - milla-jovovich/mempalace: Det høyest poenggivende AI‑minnesystemet som noen gang er testet. Og det er gratis.

Mastodon +6 kilder mastodon
anthropicbenchmarksclaudedeepmindgoogleopenai
Hollywood‑stjernen Milla Jovovich har gått fra lerretet til AI‑laboratoriet, og er med på å lansere et åpen‑kilde‑minnesystem kalt **MemPalace** på GitHub. Systemet er utviklet sammen med maskinlæringsingeniør Ben Sigman, og verktøyet organiserer informasjon i virtuelle «rom» inspirert av den gamle loci‑metoden, før det lagrer samtalekontekst lokalt i stedet for i skybaserte agenter. I benchmark‑tester med Long‑MemEval‑pakken oppnådde MemPalace en poengsum på 96,6 % – den høyeste verdien som noen gang er registrert for et offentlig tilgjengelig system, og et tydelig forsprang foran kommersielle tilbud fra OpenAI, Anthropic og Google DeepMind. Resultatet ble publisert sammen med repositoriet 7. april 2026, og koden er utgitt under en MIT‑lisens, noe som betyr at hvem som helst kan integrere minnelaget i sine egne LLM‑arbeidsflyter uten lisensavgifter. Gjennombruddet er viktig fordi dagens generative‑AI‑grensesnitt forkaster øktdata så snart en samtale avsluttes, noe som tvinger brukerne til å gjenta kontekst, sløse med tokens og eksponere sensitiv informasjon for tredjeparts‑servere. Ved å opprettholde en vedvarende, lokalt kryptert kunnskapsbase, lover Mem
162

Anthropic: Alle dine zero‑days tilhører Mythos

Mastodon +7 kilder mastodon
anthropicclaude
Anthropic har stille åpnet en begrenset beta av Claude Mythos, sin nyeste store språkmodell, for en håndfull bedrifts‑partnere under kodenavnet Project Glasswing. Modellen, beskrevet i et forhåndsdokument som ble publisert tidligere denne uken, kan ikke bare oppdage zero‑day‑feil i operativsystemer og skytjenester, men også generere fungerende exploit‑kode som oppnår fjern‑kodeutførelse eller forårsaker krasj. I interne tester skal systemet ha avdekket sårbarheter i Windows, Linux, macOS og flere container‑runtime‑miljøer på minutter – en hastighet som overgår tradisjonelle manuelle bug‑jakt‑sykluser. Anthropic sier at betaen er «ikke for offentlig bruk» fordi evnene «kan ødelegge internett på en dårlig måte». Selskapets forsiktighet gjenspeiler tidligere bekymringer som ble reist etter at Claude Mythos‑forhåndsvisningen først ble dokumentert i vårt System Card den 8. april, hvor vi bemerket modellens enestående kodeferdigheter. Det som er nytt nå, er konkret bevis på at modellen kan gå fra oppdagelse til utnyttelse, et sprang som gjør den fra en forskningsnysgjerrighet til et potensielt våpen. Implikasjonene får ringvirkninger gjennom cybersikkerhetsøkosystemet. Defensive team kan snart måtte forholde seg til AI‑genererte exploits som dukker opp raskere enn sikkerhetsoppdateringer kan rulles ut, mens røde‑team‑operatører kan bruke Mythos til å skjerpe sine egne vurderinger. Samtidig får perspektivet med en AI som autonomt kan våpenisere programvare regulatoriske øyenbryn hevet og gir næring til den bredere debatten om ansvarlig AI‑utplassering. Hva man bør følge med på videre: Anthropics utrullingsplan og eventuelle offentlige politiske uttalelser, reaksjoner fra nasjonale cybersikkerhetsbyråer, og om rivaliserende firmaer som OpenAI eller Google vil avduke tilsvarende modeller. Bransjen vil også se etter mitigasjonsverktøy – sandboxing, AI‑bevisst inntrengingsdeteksjon og raske patch‑pipelines – som kan holde tritt med en AI som kan gjøre en zero‑day til en aktiv exploit på sekunder.
158

«Båndet med en sann hund er like varig som jordens bånd noen gang vil være.» — Konrad

Mastodon +6 kilder mastodon
Et generativ‑AI‑system har laget et slående portrett av en hund ledsaget av et sitat fra etologen Konrad Lorenz: «Båndet med en sann hund er like varig som jordens bånd noen gang vil være.» Bildet, som ble lagt ut på X med bildeteksten «🖼️ Atribuição de Obra: Konrad Lorenz 🤖 Imagem gerada por AI», samlet raskt tusenvis av likes og utløste en debatt i nordiske teknologikretser om skjæringspunktet mellom klassisk litteratur, dyresymbolikk og maskin‑laget kunst. Innlegget er bemerkelsesverdig ikke bare for sin visuelle appell, men også for hvordan det kombinerer et sitat i det offentlige domene med en syntetisk gjengivelse som etterligner et tradisjonelt oljemaleri. AI‑modellen bak verket, en diffusjonsbasert generator finjustert på historiske portrettdatasett, ble ifølge rapporter kjørt på en skytjeneste som tilbyr gratis kreditter til skapere. Ved å kreditere Lorenz som «forfatter» av verket, reiser opplasteren et subtilt spørsmål: hvordan skal attribusjon håndteres når en maskin samler en komposisjon fra offentlige domene‑tek
157

Paul Couvert (@itsPaulAi) på X

Mastodon +7 kilder mastodon
benchmarksclaudegpt-5
Zai, det søkoreanske AI‑oppstartsselskapet kjent for sine lettvektige språkmodeller, kunngjorde på X at deres nyeste åpne kildekode‑utgivelse kan måle seg med ytelsen til Opus 4.6 og OpenAIs kommende GPT‑5.4. I en tråd publisert av AI‑lærer Paul Couvert (@itsPaulAi) delte selskapet benchmark‑resultater som viser at den nye modellen overgår begge konkurrentene på flere standardtester, samtidig som den leverer inferenskostnader til en brøkdel av prisen. Modellen er allerede pakket for bruk med Anthropics Claude Code og OpenClaw‑utviklingsmiljøet, noe som signaliserer et skritt mot umiddelbar integrering i eksisterende verktøy. Kunngjøringen er viktig fordi den reduserer gapet mellom proprietære, sky‑hostede LLM‑er og fellesskapsdrevne alternativer. Åpne‑kilde‑modeller har tradisjonelt ligget bak på skala og pålitelighet, noe som har tvunget bedrifter til å bruke dyre API‑kontrakter. Zais påstand om «rimeligere og bedre» ytelse kan akselerere adopsjon i kostnadssensitive sektorer som fintech, utdanning og offentlige tjenester i Norden, hvor budsjettbegrensninger og bekymringer om datasuveränitet favoriserer lokalt hostede løsninger. Som vi rapporterte 24. mars, har det europeiske AI‑økosystemet fulgt med på oppsvinget i åpen kildekode; dagens utgivelse tilfører en troverdig konkurrent som kan fin‑tunes på regional data uten lisensieringshindre. Det som vil være viktig å følge videre, er hvordan modellen presterer i virkelige implementeringer utover de publiserte benchmark‑ene. Tidlige brukere i Skandinavia vil sannsynligvis teste kodebasen i språkspesifikke applikasjoner, og undersøke latens, hallusinasjonsrate og kompatibilitet med eksisterende pipelines. Oppfølgingsutgivelser fra Zai, spesielt eventuelle kvantisering‑ eller multimodale utvidelser, vil indikere om selskapet kan opprettholde momentet. I mellomtiden vil det bredere fellesskapet granske lisensvilkårene og robustheten i treningsdataene, faktorer som kan avgjøre om modellen blir en fast bestanddel i den åpne‑kilde‑LLM‑stakken eller forblir en nisje‑presentasjon.
147

Sam Altman kan kontrollere vår fremtid—kan han stoles på?

Mastodon +7 kilder mastodon
ai-safetyopenai
OpenAIs styre har i stillhet igangsatt en formell etterforskning av administrerende direktør Sam Altman, og anklager ham for å ha gitt styret feilaktig informasjon om selskapets sikkerhetsplan og for å ha bagatellisert interne risikoer. Ifølge kilder startet etterforskningen etter at en rekke interne notater dukket opp, som indikerte at Altman hadde overdrevet fremdriften i justeringsforskning og hadde skjult avvikende meninger fra senioringeniører. Anklagene kulminerte i en avstemning om å avslutte Altmans ansettelse forrige uke, et trekk som sjokkerte både ansatte og investorer. Episoden har betydning langt utover én enkelt lederes skjebne. OpenAI står i sentrum av generativ‑AI-boomen, og produktene deres driver alt fra chat‑assistenter til bedriftsverktøy. Hvis administrerende direktør kan omgå styrets tilsyn, risikerer selskapets løfte om å «bygge sikker AI» å bli tomt, og det reiser spørsmål om ansvarlighet i en bransje hvor én leder kan forme utviklingen av en teknologi som mange anser som eksistensielt risikabel. Styrets bekymringer gjenspeiler bredere regulatoriske angst i Europa og USA, hvor lovgivere utarbeider lovgivning for å dempe ukontrollert AI‑utvikling og for å pålegge åpenhet om modeller med stor påvirkning. Altmans allierte har allerede mobilisert seg. Flere hundre ingeniører signerte et åpent brev som krever hans gjeninnsettelse, og flere venturekapitalpartnere har advart om at en langvarig lederkonflikt kan forsinke produktlanser
129

OpenAI‑utviklere (@OpenAIDevs) på X

Mastodon +7 kilder mastodon
gpt-5openai
OpenAIs utviklerkanal på X kunngjorde at, med virkning fra 14. april, vil Codex‑modellene som driver kodeassistanse basert på ChatGPT bli pensjonert og erstattet av en ny serie med GPT‑5‑modeller. Innlegget listet opp de støttede tilbudene – gpt‑5.4, gpt‑5.4‑mini, gpt‑5.3‑codex, gpt‑5.3‑codex‑spark (kun tilgjengelig for Pro‑abonnenter) og gpt‑5.2 – og advarte om at alle API‑kall gjort med en personlig nøkkel etter avviklingsdatoen kun vil falle tilbake til de eldre modellene dersom utviklere eksplisitt velger det. Endringen er viktig fordi Codex har vært ryggraden i OpenAIs kode‑fullføringsfunksjoner, fra «Forklar kode»-knappen i ChatGPT til tredjeparts‑IDE‑utvidelser. Ved å gå over til GPT‑5‑familien lover OpenAI høyere nøyaktighet, bredere språkdekning og tettere integrasjon med sine nyeste resonneringsevner. For utviklere kan skiftet bety raskere forslag, færre hallusinasjoner og en mer konsistent prismodell som knytter kodegenerering til de samme trappede prisene som brukes for tekstgenerering. OpenAIs grep signaliserer også en bredere strategi om å samle modellporteføljen under GPT‑5‑paraplyen, redusere vedlikeholdsbyrden for eldre systemer og posisjonere selskapet mot konkurrenter som Anthropics Claude og Googles Gemini, som allerede har samlet sine kode‑relaterte tjenester. Den kun for Pro‑brukere «spark»-varianten antyder et premium‑nivå rettet mot virksomheter som trenger høyere gjennomstrømning eller lavere latens. Hva som skjer videre: OpenAI vil i løpet av de kommende dagene publisere migrasjonsveiledninger og oppdatert prisinformasjon på utviklerportalen, og fellesskapet vil teste de nye modellene i populære utvidelser som GitHub Copilot og VS Code. Tidlige ytelsesbenchmarker, spesielt på store kodebaser, vil vise om de lovede forbedringene materialiserer seg. Til slutt kan eventuelle endringer i bruksavgifter påvirke økonomien i SaaS‑verktøy som integrerer OpenAIs kode‑genererings‑API‑er, noe som kan få konkurrentene til å justere sine egne tilbud.
129

Artificial Analysis (@ArtificialAnlys) på X

Mastodon +6 kilder mastodon
agentsbenchmarks
Artificial Analysis (@ArtificialAnlys) har lansert en ny «oversikt over agentlandskapet» som kartlegger 7 kjernekategorier av AI‑drevne agenter – Generelt arbeid, Koding, Chatbotter, Presentasjoner, OCR, Dataanalyse og Kundeservice. Den interaktive matrisen lar brukerne sammenligne hver agents primære funksjoner, ytelsesmålinger og kostnadsprofil side om side. Lanseringen, kunngjort på X 4. april, bygger på Artificial Analysis sin anerkjente rolle som uavhengig benchmark for AI‑modeller og API‑leverandører, og utvider omfanget fra statiske modellpoeng til de dynamiske, oppgave‑orienterte agentene som i økende grad er integrert i bedriftsprosesser. Tidspunktet er betydningsfullt. Etter hvert som AI‑agenter går fra eksperimentelle laboratorier til daglige forretningsoperasjoner, står beslutningstakere overfor et fragmentert marked der påstander om «agentintelligens» ofte overgår verifiserbare data. Ved å destillere komplekse ytelsesvariabler – utskriftshastighet, latenstid, pris og funksjonell bredde – til en enkelt, søkbar oversikt, gir Artificial Analysis innkjøpsteamene et praktisk verktøy for risikobevisst anskaffelse. Selskapets egen kostnadsanalyse, sitert i nylige
129

Artemis II‑astronauter bruker iPhone for å ta fantastiske rombilder

Mastodon +6 kilder mastodon
apple
NASAs bemannede Orion‑flyvning Artemis II har blitt den første dypromsoppdraget som tar med forbruker‑klassifiserte iPhones, og enhetene leverer allerede en strøm av slående fotografier. Seks dager inn i den 25‑dagers reisen rundt Månen har astronautene ombord i kapselen “Integrity” brukt iPhone 17 Pro‑telefoner til å ta selfies av Jorden, nærbilder av månens horisont og innvendige bilder av cockpiten. Bildene, som blir sendt via romfartøyets høy‑gevinst‑antenne, viser planetens nattlige bylys i en enestående klarhet for et telefonkamera og avslører månens robuste terminator med et detaljnivå som kan måle seg med dedikerte vitenskapelige nyttelaster. Dette følger NASAs beslutning i 2024 om å sertifisere iPhones for romfart etter en rekke jordbaserte vibrasjons‑ og strålingsprøver som viste at maskinvaren kunne overleve oppskytingsbelastninger og det harde strålingsmiljøet utenfor lav jordbane. Apples partnerskap med etaten er en del av en bredere strategi for å demonstrere iPhone 17‑s beregningsfotograferingsplattform – sensor‑fusjon, AI‑drevet HDR og lav‑lys‑behandling – under ekstreme forhold. For NASA gir telefonene et lavkost‑, høyoppløsnings‑tillegg til tradisjonelle kameraer, mens for Apple gir oppdraget en kraftig markedsføringsfortelling og virkelige data for å finjustere sine bildebehandlingsalgoritmer. Den visuelle strømmen brukes allerede i offentlige formidlingskanaler, men forskningsmiljøet ser på datasettet for tilleggsforskning. Analytik
110

Bluesky satser på AI med Attie, en app for å bygge tilpassede strømmer | TechCrunch

Mastodon +6 kilder mastodon
agents
Bluesky, den desentraliserte sosiale medieplattformen bygget på AT‑protokollen, lanserte Attie, en AI‑drevet app som lar brukere lage og kuratere sine egne strømmer ved hjelp av naturlige språk‑kommandoer. Betaversjonen, støttet av et konsortium av kryptofokuserte investorer, posisjonerer Attie som et «agentisk» lag på toppen av Blueskys åpne nettverk, og gjør det mulig for hvem som helst å «vibe‑kode» en personlig sosial opplevelse og etter hvert dele de resulterende verktøyene med andre brukere. Lanseringen markerer Blueskys første forsøk på generativ‑AI‑funksjonalitet, og går utover den opprinnelige løftet om algoritme‑frie tidslinjer. Ved å oversette tekst‑baserte instruksjoner til strømfiltere, anbefalingsregler og til og med UI‑justeringer, lover Attie et nivå av tilpasning som kan måle seg med proprietære plattformer der algoritmen forblir ugjennomsiktig. For et nettverk som markedsfører seg på bruker‑suverenitet, kan evnen til å skripte sin egen sosiale app akselerere adopsjonen blant utviklere og kraftbrukere som lenge har klaget over den begrensede uttrykksmuligheten i standard Bluesky‑klienter. Bransjeobservatører ser på trekket som et testtilfelle for hvordan desentraliserte tjenester kan utnytte AI uten å overlate kontrollen til én enkelt bedriftsenhet. Hvis Atties vibe‑koding viser seg intuitiv, kan det sette i gang en bølge av fellesskaps‑byggede utvidelser, og omforme hvordan innhold blir presentert på tvers av Fediverse. På den annen side kan avhengigheten av kryptobasert finansiering tiltrekke regulatorisk gransking, spesielt ettersom AI‑genererte strømmer kan forsterke feilinformasjon eller ekstremt innhold uten en sentral moderator. Hva du bør følge med på videre: Blueskys veikart for utrulling av Attie utover betaversjonen, fremveksten av tredjeparts‑strømmaler og eventuelle kunngjøringer om partnerskap med leverandører av AI‑modeller. Like kritisk vil være plattformens respons på moderasjonsutfordringer etter hvert som bruker‑lagde strømmer sprer seg, og om andre desentraliserte nettverk vil lansere sammenlignbare AI‑verktøysett for å holde seg konkurransedyktige. De kommende månedene vil vise om Attie blir en katalysator for et mer programmerbart sosialt nett, eller om det forblir et nisjeeksperiment begrenset til tidlige adoptere.
110

亜人にとってのLinux Foundation</a>とヒトにとってのLinux Foundation</a>は、同じものでしょうか – Anthropic sier at sin m

Mastodon +6 kilder mastodon
anthropic
Anthropic kunngjorde at deres nyeste AI‑drevne cybersikkerhetsmodell, internt kalt «Glasswing», er det mest kapable systemet de noen gang har bygget for nettverkssikkerhetsoppgaver, men selskapet har besluttet å holde den utenfor det offentlige domenet. Modellen, beskrevet som en «cyber‑fokusert stor språkmodell» som kan generere sofistikert exploit‑kode, skanne etter sårbarheter og til og med orkestrere flertrinns‑angrep, ble ansett som for farlig til å bli sluppet uten enestående sikkerhetstiltak. I stedet har Anthropic begrenset teknologien til et strengt kontrollert forskningsmiljø kalt Project Glasswing, hvor et lite team kan utforske grensene mens de håndhever streng isolasjon, revisjonsspor og godkjenninger fra mennesker i sløyfen. Dette trekket understreker den økende spenningen mellom AI‑fremgang og sikkerhetsrisiko. Som vi rapporterte 8. april, avdekket Anthropic zero‑day‑exploits i sin egen infrastruktur, noe som fremhevet den duale bruks­natur­en til kraftige modeller. Ved å anerkjenne trusselen som Glasswing utgjør, slutter selskapet seg til OpenAI og Google i den offentlige debatten om modell‑kopiering og misbruk, temaer som har dominert nyhetsbildet den siste tiden. Å holde modellen intern kan hindre umiddelbart misbruk, men det reiser også spørsmål om åpenhet, ansvarlighet og bransjens evne til å sette sikkerhetsstandarder for AI‑baserte cybersikkerhetsverktøy. Det som nå er viktig å følge med på, er om Anthropic vil publisere sikkerhetsforskningsresultater fra Glasswing, invitere eksterne revisorer eller søke regulatorisk veiledning om AI‑drevne cyber‑kapasiteter. Konkurrenter vil sannsynligvis akselerere sine egne defensive AI‑programmer, og myndigheter i EU og USA forventes å skjerpe tilsynet med dual‑use AI. De kommende ukene kan avdekke om Project Glasswing blir en målestokk for ansvarlig AI‑sikkerhetsforskning eller en advarselshistorie om teknologi som holdes for tett til brystet.
109

Mark Gadala‑Maria (@markgadala) på X

Mastodon +7 kilder mastodon
anthropic
Anthropics neste generasjonsmodell er klar til å «ryste internett», skrev teknologikommentatoren Mark Gadala‑Maria på X, og utløste en bølge av spekulasjoner i AI‑miljøet. Selv om innlegget ikke navngav modellen, knytter bransjeinsidere bemerkningen til Anthropics kommende lansering – antatt å bli en etterfølger til Claude 3.5 med utvidede multimodale evner og et dramatisk større kontekstvindu. Tweeten, som ble publisert 8. april, har allerede blitt retweetet av dusinvis av AI‑forskere som ser den som et signal om at Anthropic endelig kan lukke ytelsesgapet til OpenAI sin GPT‑4‑Turbo og Google DeepMinds nylige 85 % ARC‑AGI‑2‑score, som vi dekket 6. april. Hvis det nye Anthropicsystemet lever opp til forventningene, kan det omforme flere områder. En modell som kan generere kode av høy kvalitet, langt innhold og sanntidsresonnement til lavere token‑kostnader, vil intensivere konkurransen om bedriftskontrakter, spesielt i sektorer hvor dataprivacy og alignment er avgjørende. Det vil også heve standarden for benchmark‑pakker som ACE, som måler kostnaden for å bryte AI‑agenter, og kan endre økonomien i AI‑drevne tjenester som er avhengige av token‑prisede API‑er. Dessuten kan en kraftigere Claude‑variant akselerere trenden med AI‑skrevet programvare, i tråd med Mark Zuckerbergs påstand om at Metas kodebase vil være i stor grad AI‑generert innen 12‑18 måneder. Hold øye med en offisiell kunngjøring fra Anthropic i de kommende ukene, sannsynligvis ledsaget av benchmark‑resultater på ARC‑AGI‑2, MMLU og den nyutgitte ACE‑pakken. Analytikere vil også følge prisnivåer, utrullingen av eventuelle on‑premise‑ eller private‑cloud‑tilbud, samt responsen fra OpenAI og Google, hvis egne modell‑veikart kan bli justert for å motvirke Anthropics satsing. De neste månedene kan dermed definere den neste konkurransebølgen i store språkmodellers ytelse og markedsandel.
101

Cybersecurity i tidsalderen for umiddelbar programvare – Schneier om sikkerhet

Mastodon +6 kilder mastodon
Bruce Schneiers siste essay, «Cybersecurity i tidsalderen for umiddelbar programvare», advarer om at generative‑AI‑verktøy er på vei til å gjøre programvareutvikling til en tjeneste på forespørsel. Innen årsskiftet vil både utviklere og ikke‑tekniske brukere kunne gi en AI en prompt for å få en komplett applikasjon – enten det er et regneark‑makro, et web‑API eller en mikrotjeneste – på noen få minutter. Schneier argumenterer for at dette «umiddelbare programvare»-paradigmet vil erodere den tradisjonelle portvaktrollen til kodegjennomgang, test‑pipelines og samsvarskontroller, fordi koden blir generert i øyeblikket den trengs og ofte aldri havner i et versjonskontrollert lager. Endringen er viktig fordi sikkerhetsgarantiene som i dag hviler på menneskelig gransking og repeterbare byggeprosesser, vil bli omgått. AI‑generert kode kan arve skjulte skjevheter, innebygge ondsinnede nyttelaster eller rett og slett inneholde logiske feil som unngår oppdagelse når artefakten aldri blir undersøkt. Schneier peker på tidlige hendelser der AI‑assistert kodeforslag introduserte sårbare avhengigheter, og bemerker at hastigheten i genereringen gjør storskalautnyttelse mulig: en angriper kan oversvømme et marked med ondsinnede «umiddelbare apper» som fremstår som legitime for intetanende brukere. Ser man fremover, vil sikkerhetsmiljøet trenge nye kontroller som opererer på AI‑prompt‑nivå. Schneier foreslår å innlemme proveniensmetadata, sanntids‑statisk analyse av generert kode, og obligatorisk attestasjon av AI‑modeller som brukes til koding. Reguleringsmyndigheter kan også vurdere standarder for AI‑kodegeneratorer, på samme måte som de som utvikles for autonome våpen. Observatører bør holde øye med pilotprogrammer i store skyplattformer som har som mål å sertifisere sine kode‑genereringstjenester, samt bransjekoalisjoner som foreslår sikkerhetsrammeverk for «umiddelbar programvare». De kommende månedene vil vise om industrien klarer å ettermontere tillit på en teknologi som fundamentalt endrer hvordan programvare bygges.
101

Apple kan introdusere A19 Pro‑brikken i MacBook Neo neste år, men kan snart møte forsyningshindre

Mastodon +6 kilder mastodon
applechipsgoogle
Apple skal ifølge et lekkasje fra CNET oppdatere sin inn‑nivå‑MacBook Neo med den neste generasjonen A19 Pro‑prosessor allerede så tidlig som neste år. Oppgraderingen vil øke enhetens samlede minne til 12 GB, opp fra dagens 8 GB, samtidig som den beholder den 13‑tommers Liquid‑Retina‑skjermen, batterilevetid for en hel dag og prisen på 599 dollar som har gitt sterk forbrukeroppkjøp. Dette er viktig fordi det vil dykke dypere inn i Apples egen‑utviklede silisiumstrategi i budsjettsegmentet, og gi selv de rimeligste laptopene samme AI‑klare arkitektur som driver selskapets flaggskip‑Mac‑er og iPad‑er. En kraftigere brikke kan muliggjøre jevnere språkmodell‑inferens på enheten og rikere grafikk, og dermed minske ytelsesgapet mellom Neo og dyrere konkurrenter. For Apple har Neo blitt en sentral volumdriver, særlig i markeder hvor prisfølsomhet begrenser Mac‑adopsjon. Analytikere advarer imidlertid om at Apple kan støte på forsyningsflaskehalser som kan dempe utrullingen. A19 Pro er allerede planlagt brukt i andre produktlinjer, og TSMCs kapasitet på avanserte noder er stram etter en kraftig økning i etterspørselen etter M‑serie‑brikker. Apples egne uttalelser tyder på at de er motvillige til å merke Neo som «midlertidig utsolgt», men en mangel kan tvinge selskapet til å dempe produksjonen eller akseptere tynnere marginer. En lignende utfordring dukket opp tidligere denne måneden med Apples foldbare iPhone, hvor problemer i senfase‑produksjonen truet lanseringstidspunktene. Det som bør følges med på videre er selskapets forsyningskjede‑briefinger før WWDC‑talen og eventuelle oppdateringer fra TSMC om wafer‑allokeringer. En formell kunngjøring om Neo‑oppdateringen, prisjusteringer eller en overgang til en litt dyrere konfigurasjon vil signalisere hvordan Apple planlegger å balansere etterspørselen med realitetene i et begrenset silisiummarked.
100

Anthropic hevder at deres nye AI-modell, Mythos, er et cybersikkerhets‑oppgjør

Mastodon +7 kilder mastodon
anthropic
Anthropic kunngjorde tirsdag at deres neste‑generasjonsmodell, kalt Claude Mythos, markerer et «cybersikkerhets‑oppgjør». Selskapet, som har holdt detaljene skjult, uttalte at systemet – utviklet under den interne kodenavnet «Capybara» – kan lokalisere programvare‑sårbarheter i operativsystemer og nettlesere med en suksessrate som overgår alle unntatt noen få spesialiserte verktøy. En delvis lekkasje av tekniske spesifikasjoner i forrige måned førte til at Anthropic bekreftet påstanden og forklarte hvorfor modellen ikke vil bli gjort offentlig tilgjengelig. I stedet vil den rulles ut til en lukket gruppe på omtrent 40 bedrifts‑partnere for en kontrollert pilot. Dette trekket bygger på Anthropics nylige satsinger innen sikkerhetsfokusert AI. I april advarte de om at deres tidligere modell kunne avdekke zero‑day‑utnyttelser, en påstand som utløste debatt om ansvarlig offentliggjøring (se vår rapport fra 8. april om Anthropics «All your zero‑days are belong to Mythos»). Ved å kombinere Mythos med Google Clouds Tensor Processing Units – et partnerskap kunngjort 7. april – har firmaet utrustet modellen med den beregningskraften som kreves for sanntids‑kodeanalyse. Beslutningen om å begrense tilgangen reflekterer en økende uro i bransjen over å våpenføre AI‑drevet sårbarhetsoppdagelse, et tema som også ble fremhevet i vår dekning av umiddelbare programvaresikkerhetsutfordringer. Hva du bør holde øye med videre: Anthropic har sagt at piloten vil generere ytelsesdata og sikkerhetsmålinger som vil forme en bredere utrullingsstrategi. Observatører vil se etter det første settet av offentliggjorte funn, som kan påvirke oppdateringssykluser for store operativsystemleverandører. Reguleringsmyndigheter kan også granske den lukkede betaversjonen under fremvoksende AI‑risikorammer, mens konkurrenter som OpenAI og Google sannsynligvis vil akselerere sin egen sikkerhets‑orienterte modellutvikling. De neste ukene vil vise om Mythos blir en katalysator for tettere AI‑sikkerhetssamarbeid eller en gnist for nye politiske debatter.
92

Pietro Monticone (@PietroMonticone) på X

Mastodon +6 kilder mastodon
openai
Et samarbeid mellom en menneskelig matematiker, OpenAIs GPT‑5.4 Pro og HarmonicMaths “Aristotle”-resoneringsmotor har ifølge rapporter løst Erdős‑problem #650, et spørsmål som har stått på listen over uløste problemer i mer enn seks tiår. Gjennombruddet ble kunngjort på X av forsker Pietro Monticone, som beskrev hvordan det treveis partnerskapet produserte en fullstendig bevis som deretter ble kontrollert av formelle verifikasjonsverktøy. Dette er første gang et langvarig Erdős‑problem er knekt med direkte hjelp fra en stor språkmodell og et dedikert formelt resoneringssystem. GPT‑5.4 Pro leverte høynivå‑konjekturer, foreslo lemmata og utarbeidet bevisutkast, mens Aristotle, bygget på et fundament av teorem‑bevis‑biblioteker som Lean og Isabelle, fylte hullene med maskin‑sjekkede inferenssteg. Den menneskelige eksperten styrte den overordnede strategien, validerte intuisjonen bak argumentene og sørget for at den endelige teksten oppfylte matematiske standarder. Hvorfor dette er viktig går utover selve løsningen. Det demonstrerer at generativ AI kan gå fra mønstergjenkjenning til ekte matematisk innsikt, spesielt når den kombineres med formelle bevisassistenter som garanterer logisk korrekthet. Hendelsen kan endre forskningsarbeidsflyter, senke terskelen for å angripe dype problemer og akselerere verifiseringsprosessen som tradisjonelt krever måneder med fagfellevurdering. Samtidig reiser den spørsmål om forfatterskap, kredittfordeling og reproduserbarhet av AI‑genererte bevis. De neste stegene blir kritiske. Uavhengige matematikere forventes å granske beviset, og en formell publisering i et fagfellevurdert tidsskrift vil sannsynligvis følge. Fellesskapet vil følge med på hvordan OpenAI posisjonerer GPT‑5.4 Pro — enten som forskningsassistent, medforfatter eller verktøy for beviskontroll. Ytterligere samarbeid blir allerede antydet, med flere åpne problemer fra Erdős‑listen satt på agendaen for AI‑forsterkede angrep. Hendelsen signaliserer at æraen med AI‑drevet matematikk ikke lenger er spekulativ, men aktivt omformer frontlinjen for oppdagelse.

Alle datoer