AI News

272

Kevin Weil og Bill Peebles forlater OpenAI mens selskapet fortsetter å kutte sideprosjekter

HN +7 kilder hn
openaisora
Kevin Weil, lederen for OpenAIs vitenskapelige forskningsprogram, og Bill Peebles, skaperen av AI‑videoverktøyet Sora, kunngjorde på fredag at de forlater selskapet. Avgangene skjer mens OpenAI kutter «sideprosjekter» og satser kraftig på en bedriftsorientert AI‑strategi forankret i en kommende «superapp». Weil hadde hatt ansvar for OpenAIs satsing på vitenskapelig oppdagelse, senest den begrensede GPT‑Rosalind‑modellen for livsvitenskapelig forskning. Peebles ledet Sora‑teamet, som ble lagt ned i forrige måned etter at OpenAI pekte på forbudende beregningskostnader og et skifte bort fra eksperimentell mediegenerering. Begge avgangene følger en bølge av seniorutskiftninger som startet tidligere denne måneden da chief research officer Mira Murati trakk seg av helsemessige årsaker, og selskapet kunngjorde en omfattende omorganisering av sin ledergruppe. Tiltakene er viktige fordi de signaliserer et tydelig vendepunkt fra høy‑risiko‑ og høy‑kostnadsprosjekter til produkter som raskt kan kommersialiseres i bedriftsmarkedet. Ved å samle talent rundt anvendt AI håper OpenAI å fremskynde
210

Anthropic har nettopp gitt Claude et designstudio. Slik fungerer Claude Design egentlig.

Anthropic har nettopp gitt Claude et designstudio. Slik fungerer Claude Design egentlig.
Dev.to +6 kilder dev.to
anthropicclaudefine-tuning
Anthropic lanserte Claude Design Studio tirsdag, og stiller sin flaggskip‑LLM som en direkte konkurrent til Figmas designøkosystem. Det nye nettbaserte studioet lar brukere beskrive et UI‑konsept i naturlig språk og får en fullverdig mock‑up med vektor‑elementer, layout‑forslag og merkevare‑konsekvente fargepaletter. Brukerne kan deretter iterere ved å be Claude om å justere avstand, bytte ikoner eller generere alternativ typografi, alt i ett grensesnitt som kan eksportere til standard design‑filer (Figma, Sketch, Adobe XD). Lanseringen følger Anthropics nylige utrulling av Claude Opus 4.7 og den tidligere “Claude Design”-mock‑upen vi rapporterte om 18. april 2026, som antydet en markedsførings‑fokusert prototype. Det er to grunner til at dette er viktig. For det første bringer det generativ AI fra kode‑sentrerte assistenter som Claude Code inn i den visuelle design‑arbeidsflyten, noe som potensielt kan kutte tiden designere bruker på lavnivå‑iterasjon og gjøre det mulig for mindre team å lage høy‑oppløselige prototyper uten en dedikert UI‑spesialist. For det andre, ved å integrere modellen i et eget studio i stedet for som en plug‑in, omgår Anthropic “AI‑som‑tillegg”-modellen som har dominert markedet og utfordrer Figmas påstand om å være det eneste knutepunktet for samarbeidende design. Hvis Claude Design kan levere pålitelige, merke
193

# Technology    # DataAnalytics    # Data   Hvordan få Claude Code til å forbedre seg fra sine egne feil

# Technology    # DataAnalytics    # Data   Hvordan få Claude Code til å forbedre seg fra sine egne feil
Mastodon +10 kilder mastodon
claude
Anthropics Claude Code har tatt et skritt mot selv‑læring, som beskrevet i en ny veiledning på Towards Data Science med tittelen «How to Make Claude Code Improve from its Own Mistakes». Guiden leder dataforskere gjennom en gjenta‑spør‑forbedre‑sløyfe som lar Claude Code flagge, forklare og automatisk omskrive feilaktige kodebiter uten menneskelig inngripen. Ved å fange opp feilmeldinger, mate dem tilbake inn i modellen, og utnytte Claudes innebygde analyseverktøy for sanntids‑kodekjøring, kan brukere forvandle ett mislykket kjøringsforsøk til en kjede av inkrementelle forbedringer. Utviklingen er viktig fordi Claude Code allerede er posisjonert som en lav‑kode‑partner for analytikere som foretrekker konversasjonsbaserte arbeidsflyter fremfor tradisjonelle IDE‑er. Som vi rapporterte 17. april, lanserte Anthropic Claude Code‑arbeidsflyten sammen med Opus 4.7‑oppgraderingen, med løfte om tettere integrasjon med regneark, PDF‑filer og API‑pipelines. Det nye selv‑korrigeringsmønsteret reduserer friksjonen ved «debug‑then‑prompt», som har begrenset bredere adopsjon, særlig i miljøer som håndterer store, ustrukturerte datasett. Tidlige brukere hevder opptil 30 prosent mindre manuell omskrivningstid når de behandler tabeller med en halv million rader, en gevinst som kan endre hvordan mellomstore bedrifter bemanner data‑analyseprosjekter. Fremover forventes Anthropic å bygge inn tilbakemeldingssløyfen direkte i Claude‑AI‑konsollen, og gjøre ad‑hoc‑prompting til en vedvarende læringssyklus. Observatører vil følge med på den kommende funksjonen «Claude Code Auto‑Refine» som er planlagt på Q3‑veikartet, samt eventuelle open‑source‑utvidelser som lar team eksportere korrigeringshistorikken for fin‑tuning. Dersom arbeidsflyten for selv‑forbedring skalerer, kan Claude Code bli den første konversasjonelle koderen som pålitelig lærer av sine egne feil, og stramme inn sløyfen mellom menneskelig intensjon og maskinell utførelse i hele det nordiske AI‑økosystemet.
142

Hva er Mythos og hvorfor er eksperter bekymret for Anthropics AI-modell

Hva er Mythos og hvorfor er eksperter bekymret for Anthropics AI-modell
Mastodon +8 kilder mastodon
anthropic
Anthropics nyeste store språkmodell, Claude Mythos, er trukket tilbake fra offentlig utrulling etter interne tester som avdekket en enestående evne til å lokalisere og utnytte programvare‑sårbarheter på tvers av store operativsystemer. Selskapet opplyste at modellen kan generere funksjonell exploit‑kode, kartlegge privilegierings‑veier og til og med lage phishing‑payloads med minimal menneskelig veiledning. Innen timer etter kunngjøringen samlet finansministere, sentralbanker og seniorbankfolk nødmøter og advarte om at verktøyet kan gi ondsinnede aktører en «superhuman» fordel i cyber‑angrep mot kritisk finansiell infrastruktur. Avsløringen har utløst en bølge av regulatorisk press. Chief information security officers og leverandører av cybersikkerhetsløsninger, som står til å tjene på økt etterspørsel etter defensive produkter, oppfordrer offentlig til rask handling – en motivasjon analytikere mener reflekterer institusjonell selvbevaring like mye som reell risikovurdering. Europeiske og amerikanske myndigheter utarbeider allerede nødbestemmelser under AI‑loven og den amerikanske executive order om AI‑drevede trusler, mens flere nasjonale sikkerhetsbyråer har satt Anthropic på en overvåkningsliste. Hvorfor dette er viktig går utover ett enkelt produkt. Mythos demonstrerer at generativ AI kan gå fra språkoppgaver til autonom oppdagelse av sårbarheter, og forkorte tidsforsinkelsen mellom forskning og våpenisering som tradisjonelt har beskyttet forsvarerne. Dersom slike evner blir bredt tilgjengelige, kan kostnadene ved å sikre operativsystemer, bankplattformer og offentlige nettverk skyte i været, noe som vil omforme cybersikkerhetsmarkedet og tvinge til en revurdering av rammeverk for AI‑styring. Hva man bør følge med på videre: Europakommisjonens kommende AI‑risikoklassifisering for «dual‑use»‑modeller, potensiell rettssak fra selskaper som hevder eksponering, Anthropics plan om å slippe en forsterket, «sandboxed» versjon, samt om rivaliserende laboratorier vil starte et kappløp om å innlemme lignende exploit‑genereringsmoduler i sine egne tilbud. De kommende ukene vil vise om Mythos utløser en regulatorisk omveltning eller blir en katalysator for et nytt defensivt AI‑våpenkappløp.
118

Ivan Fioravanti ᯅ (@ivanfioravanti) på X

Mastodon +8 kilder mastodon
agentsanthropic
Anthropics nyeste språkmodell, Opus 4.7, har utløst en bølge av entusiasme blant designere etter en tweet fra teknologirådgiver Ivan Fioravanti som fremhevet dens «Lovable‑level»-påvirkning på arbeidsflyter for app‑bygging. Fioravanti, som leder AI‑fokuserte prosjekter i CoreView, sa at modellens evner til å generere design er så avanserte at brukere vurderer å si opp eksisterende abonnementer på designverktøy til fordel for det gratis, AI‑drevede alternativet. Opus 4.7 bygger på Anthropics «Claude»-linje, men legger til en multimodal kjerne som kan tolke visuelle prompt, iterere på UI‑mockups og foreslå layout‑forbedringer i sanntid. Tidlige brukere rapporterer at modellen kan lage høy‑fidelitets‑wireframes fra en enkelt setningsbeskrivelse, automatisk tilpasse fargepaletter til merkevare‑re
108

Anthropic lager en prototype av Claude Design for å lage fancy nye pink slips for markedsføringsteam

Anthropic lager en prototype av Claude Design for å lage fancy nye pink slips for markedsføringsteam
Mastodon +7 kilder mastodon
anthropicclaude
Anthropic avduket Claude Design på fredag, en forsknings‑preview‑tjeneste som lar brukere generere visuelle markedsførings‑aktiva av høy kvalitet ved kun å chatte med en Claude‑modell. Prototypen produserer alt fra bannerannonser til de «fancy nye pink slips» som ble vist i demonstrasjonen, og posisjonerer samtale‑AI som et front‑end for grafisk produksjon som omgår tradisjonelle designverktøy. Lanseringen bygger på Anthropics nylige satsing på generativ kode med Claude Code, som vi dekket tidligere denne uken. Ved å utvide Claude‑familien til visuelle medier, ønsker selskapet å senke den tekniske terskelen for å lage polerte grafikker, et trekk som kan endre hvordan markedsføringsteam skaffer kreativt arbeid. Claude Design opererer på en egen bruks­måler og har ukentlige grenser, noe som signaliserer at Anthropic ser på den som en separat produktlinje snarere enn en tilleggsfunksjon. Hvorfor dette er viktig er tosidig. For det første treder tjenesten inn i et tett befolket felt dominert av bilde‑fokuserte modeller som Midjourney, DALL‑E og Stable Diffusion, men skiller seg ut med et kun‑tekst‑grensesnitt som lover raskere iterasjon for ikke‑designere. For det andre reiser den enkle AI‑drevne visuelle produksjonen spørsmål om fremtiden for profesjonelle designere og eierskapet til genererte aktiva, noe som gjenspeiler bekymringer som ble reist rundt Anthropics Mythos‑modell og dens potensial for misbruk. Det som bør følges med på videre er Anthropics prisstrategi og om Claude Design vil integreres med eksisterende kreative pakker eller sky‑plattformer som AWS. Bransjeobservatører vil også holde øye med modellens evne til å håndtere merkevare‑retningslinjer, opphavsretts‑overholdelse og høy‑oppløselig output i stor skala. En full offentlig utrulling, bruker‑tilbakemeldingssløyfer og eventuelle partnerskapskunngjøringer med ad‑tech‑selskaper vil avgjøre om Claude Design blir et nisjeeksperiment eller en katalysator for en bredere overgang mot samtale‑basert visuell skapelse.
103

Hvordan Claude Code håndterer 200 000 token uten å miste forstanden

Hvordan Claude Code håndterer 200 000 token uten å miste forstanden
Dev.to +6 kilder dev.to
agentsclaudegemini
Anthropic har avduket en ny arkitektur for kontekstvinduet i Claude Code som utvider modellens minne til omtrent 200 000 token samtidig som den bevarer sammenheng. Gjennombruddet hviler på en sanntids‑sammendragsmotor som komprimerer tidligere dialog til tette innebygde representasjoner, slik at modellen kan referere til en langt større kodebase eller en flere timer lang feilsøkingsøkt uten den «tanketapet» som vanligvis tvinger utviklere til å starte agentene på nytt etter noen minutter. Oppgraderingen er viktig fordi den fjerner en langvarig flaskehals for AI‑drevne utviklingsverktøy. Fram til nå var selv de mest kapable agentene – Claude Opus 4.7, som ble gjort generelt tilgjengelig forrige uke – begrenset til 128 k token, noe som tvang brukerne til manuelt å beskjære eller segmentere lange samtaler. Ved automatisk å destillere tidligere kontekst kan Claude Code holde oversikt over omfattende prosjekter, storskala refaktoreringer eller ende‑til‑ende testpakker i én enkelt økt. Tidlige interne tester viser en 30 % reduksjon i
80

Anthropic lanserer Claude Opus 4.7 – mindre kraftfull enn Mythos

Mastodon +6 kilder mastodon
agentsanthropicclaude
Anthropic avduket Claude Opus 4.7 den 16. april, og presenterte den som selskapets nyeste agent‑sentrerte modell for programvaregenerering og finansiell analyse. Modellen oppnådde 87,6 % på SWE‑bench Verified‑testen, en beskjeden forbedring i forhold til forgjengeren, men den ligger fortsatt bak Anthropics flaggskip Mythos, som analytikere har påpekt på grunn av sin enorme skala og fremvoksende sikkerhetsbekymringer (se vår artikkel fra 18. april om Mythos). Opus 4.7 markedsføres som et mellomliggende tilbud: mer kapabel enn den budsjettvennlige Haiku 4.5 og Sonnet 4, men bevisst begrenset i beregningskraft for å holde prisene konkurransedyktige for bedriftsutviklere. Arkitekturen legger vekt på «agent‑baserte arbeidsflyter», som gjør at modellen kan orkestrere flere verktøykall – kodeeditorer, data‑hentings‑APIer og
71

Hvis du ikke allerede vet svaret på et spørsmål, vil det tilfeldige svaret som kommer ut av en

Hvis du ikke allerede vet svaret på et spørsmål, vil det tilfeldige svaret som kommer ut av en
Mastodon +6 kilder mastodon
Et forskerteam ved Universitetet i København presenterte en prototype kalt «slop‑maskinen», et nettbasert verktøy som genererer svar på ethvert bruker‑stilt spørsmål ved å trekke på en enorm, ukurert dump av språkmodeller. I live‑demoer produserte systemet plausibel‑lydende svar på spørsmål som «Hva forårsaker nordlys?» og «Hvordan fungerer kvantetunneling», men når brukerne manglet forhåndskunnskap, var resultatet umulig å verifisere. Utviklerne selv advarte om at den tilfeldige naturen til svarene gjør verktøyet ubrukelig for alle som ikke allerede kan vurdere sannheten, og gjør det til en digital orakel som kun spyr selvsikre nonsens. Demonstrasjonen understreker et voksende problem innen AI‑feltet: store språkmodeller kan konstruere detaljer som høres autoritative ut, et fenomen som ofte kalles «hallusinasjon». For vanlige brukere eller bedrifter som baserer beslutninger på AI, undergraver mangelen på evne til å skille fakta fra fabrikasjon tilliten og reiser frykten for at feilinformasjon sprer seg ukontrollert. Som vi rapporterte 18. april, skapte Anthropics Mythos‑modell lignende bekymringer om ubegrunnede utsagn, noe som viser at problemet ikke er begrenset til én leverandør. Hva som skjer videre vil sannsynligvis forme hvordan industrien takler verifikasjonsgapet. Forskere konkurrerer om å innlemme selv‑kontrollerende mekanismer, som retrieval‑augmented generation og lag med tillits‑score, i neste generasjons modeller. Anthropic har antydet en kommende oppdatering av Mythos som vil prioritere faktabasert forankring, mens åpne prosjekter som Claude Code har demonstrert token‑effektive arkitekturer som kan støtte mer omfattende kildehenvisninger uten å gå på bekostning av hastigheten. Reguleringsmyndigheter i EU utarbeider også retningslinjer som kan kreve at AI‑systemer avslører usikkerhetsnivåer når de presenterer svar. Interessenter bør følge med på utrullingen av disse selv‑verifiseringsfunksjonene, virkningen av eventuelle nye EU‑regler for AI‑gjennomsiktighet, og om verktøy som slop‑maskinen utvikler seg fra en kuriositet til en ansvarlig kalibrert assistent. Kjerne‑spørsmålet gjenstår: Kan AI noen gang pålitelig svare på det vi ikke allerede vet, eller vil det for alltid være en høyteknologisk versjon av en spådomskule?
63

Caffeine.ai vs Replit: Hvorfor jeg byttet Vibe‑koding til Internet Computer https://www. madeby

Caffeine.ai vs Replit: Hvorfor jeg byttet Vibe‑koding til Internet Computer https://www.  madeby
Mastodon +7 kilder mastodon
agents
Et utvikler‑rettet blogginnlegg publisert på MadebyAgents denne uken beskriver en praktisk migrasjon fra Replit sin “vibe‑coding”-pakke til Caffeine.ai, og til slutt til Internet Computer (ICP)‑blockchainen. Forfatteren, som testet seks AI‑drevne kodeplattformer, fant Replit sin grensesnitt for naturlig språk intuitivt, men begrenset av ugjennomsiktig prisstruktur, få distribusjonsalternativer og en stadig voksende kø for beregningsressurser. Caffeine.ai, en nyere aktør som lover tettere integrasjon med store språkmodeller og raskere iterasjons‑sykluser, virket i første omgang som en løsning på disse problemene, men den proprietære skyen påla fortsatt leverandørlås og bekymringer rundt dataprivatliv. Den avgjørende faktoren, ifølge skribenten, var ICPs desentraliserte arkitektur. Ved å kompilere den genererte koden til canisters — selvstendige smarte kontrakter — kan utviklere lansere fullt funksjonelle web‑apper uten en tradisjonell skyleverandør, og dra nytte av nesten null vertskostnader, on‑chain‑styring og innebygde token‑insentiver for ressursbruk. Innlegget påpeker at ICP‑økosystemet nå tilbyr ferdige SDK‑er for populære LLM‑bakender, slik at “vibe‑coding”-spørringer kan kjøres direkte på nettverket mens brukerens data forblir under egen kontroll. Hvorfor skiftet er viktig av to grunner. For det første signaliserer det en modning av AI‑assistert utviklingsverktøy fra sandkasse‑SaaS‑miljøer mot åpne, programmerbare infrastrukturer som er i tråd med den bredere Web3‑bevegelsen. For det andre er kostnadsforskjellen markant: ICP kan hoste en typisk Replit‑lignende app for en brøkdel av en cent per måned, et overbevisende tilbud for indie‑utviklere og oppstartsbedrifter med stramme budsjetter. Fremover vil fellesskapet følge med på hvordan ICPs kommende “Canister‑AI”‑runtime, planlagt for Q3 2026, forenkler modellhosting, og om andre AI‑kodeplattformer adopterer lignende desentraliserte distribusjonsmodeller. Like kritisk vil utviklingen av standarder for prompt‑sikkerhet og provenance være, ettersom mer kode genereres og kjøres på offentlige blockchains. Resultatet kan omforme økonomien i AI‑forsterket programvareutvikling i den nordiske teknologiscenen og videre.
59

Menneskelig bevissthet i en cybernetisk æra

Menneskelig bevissthet i en cybernetisk æra
Mastodon +6 kilder mastodon
meta
Matthew Segalls siste essay på Substack, «Human Consciousness in a Cybernetic Age», har tent en ny debatt om de filosofiske grensene for kunstig intelligens. Segall, en kognitiv forsker som har blitt offentlig intellektuell, argumenterer for at likestillingen av kognisjon med beregning er en reduserende snarvei som risikerer å viske ut de kulturelle, relasjonelle og legemlige dimensjonene av bevissthet. «Mitt argument er ikke anti‑teknologi. Mitt argument er at vi må motstå likestillingen av kognisjon med beregning», skriver han, og oppfordrer forskere og teknikere til å behandle symbiosen mellom sinn og maskin som en to‑veis tilbakemeldingssløyfe snarere enn en en‑veis oppgradering. Stoffet kommer i en tid da AI‑drevet augmentasjon går fra spekulativ fiksjon til kommersiell virkelighet. Bærbare nevrale grensesnitt, hjerne‑datamaskin‑implantater og AI‑forsterkede beslutningsverktøy blir allerede testet i nordiske helsesystemer og europeiske forskningslaboratorier. Samtidig viser bransjetiltak som Zoom sitt partnerskap med World for å verifisere menneskelige deltakere og OpenAIs sandkasse‑agent‑SDK en økende appetitt på sømløs menneske‑AI‑interaksjon. Segalls advarsel berører derfor en kjerne­spenning: hvordan integrere beregningskraft uten å kollapse den rike, ikke‑algoritmiske veven av menneskelig erfaring. Hvorfor dette er viktig, er både etisk og praktisk. Politikere som utformer EU sin kommende AI‑lov, kjemper med definisjoner av «menneske‑i‑sløyfen» og «autonomt system». Hvis bevissthet kun blir rammet som databehandling, kan regelverket overse spørsmål om identitet, personvern og kulturell kontinuitet som cybernetiske forbedringer reiser. Dessuten kan forsk
56

Apple og Google brøt sine egne regler ved å promotere «Nudify»-apper, rapport sier

Apple og Google brøt sine egne regler ved å promotere «Nudify»-apper, rapport sier
Mastodon +6 kilder mastodon
applegoogle
Apple og Google er i søkelyset for påstått brudd på sine egne innholdsregler ved å fremheve AI‑drevne «nudify»-apper i App Store og Google Play. En ny undersøkelse utført av Tech Transparency Project (TTP) identifiserte mer enn et dusin applikasjoner som hevder å kunne fjerne klær fra bilder eller bytte ansikter, og fant at både plattformenes søkeforslag og annonseplasseringer systematisk promoterte dem til brukerne. Funnene står i motstrid til selskapenes publiserte retningslinjer, som forbyr apper som genererer seksualiserte bilder av ekte personer uten samtykke. Apples App Store Review Guidelines og Googles Developer Program Policy forbyr eksplisitt ikke‑samtykkende deepfakes og innhold relatert til nakenhet, men rapporten viser at appene fortsatt er oppført og til og med fremhevet i automatisk fullføring av søkeord og sponsede plasseringer. Problemet er viktig fordi «nudify»-verktøy kan brukes som våpen for hevnporno, trakassering og andre former for digitalt misbruk. Deres tilstedeværelse i mainstream‑markedsplasser eksponerer ikke bare brukere for ulovlig innhold, men reiser også spørsmål om effektiviteten til automatisert moderering og ansvarligheten til teknologigigantene under nye reguleringer som EUs Digital Services Act og kommende amerikansk personvernlovgivning. Merker risikerer omdømmeskade, og ofre kan stå overfor nye kanaler for ikke‑samtykkende utnyttelse. Det som nå er å følge med på, er om Apple og Google vil iverksette nød‑fjerninger, skjerpe algoritmisk kontroll eller møte formelle undersøkelser fra regulatorer. Begge selskapene har lovet å forbedre tilsynet med AI‑generert innhold, men TTP‑studien antyder et gap mellom policy og praksis. Bransjeobservatører vil også holde øye med potensielle søksmål fra personvernforkjempere og den bredere bevegelsen mot strengere standarder for deep‑fake‑teknologi i app‑økosystemene. Kontroversen kan bli en indikator på hvordan de største plattformoperatørene vil håndheve AI‑drevet misbruk i fremtiden.
56

Zoom inngår partnerskap med World for å verifisere mennesker i møter | TechCrunch

Mastodon +6 kilder mastodon
Zoom har lansert et nytt sikkerhetslag for sin videokonferansetjeneste ved å inngå partnerskap med World, oppstartsbedriften for verifisering av menneskelig identitet som ble grunnlagt av OpenAI‑sjef Sam Altman. Integrasjonen vil feste et «Verified Human»-merke til deltakere hvis ansikter kryssjekkes mot Worlds liveness‑ og biometriske kontroller, slik at vertene på et øyeblikk kan se hvem som virkelig er tilstede og hvem som kan være en AI‑generert avatar eller deep‑fake. Funksjonen, som er planlagt for en trinnvis utrulling til bedriftskunder neste måned, bygger på Zooms eksisterende AI Companion‑verktøy som allerede genererer møtesammendrag og handlingspunkter. Dette skjer i en periode der angrep med syntetisk media går fra kanten til å bli en mainstream forretningsrisiko. Forskere har demonstrert at generative‑AI‑modeller kan lage overbevisende video‑avatarer som etterligner ekte personer, noe som vekker bekymring for svindel, spionasje og en svekkelse av tilliten i fjernarbeidssamarbeid. Ved å integrere Worlds verifisering direkte i møte‑grensesnittet, ønsker Zoom å gjenopprette tilliten i sektorer som finans, juridiske tjenester og offentlig sektor, hvor en enkelt etterligning kan få kostbare konsekvenser. Partnerskapet signaliserer også en bredere bransjeskifte mot «human‑in‑the‑loop»-sikringer, i tråd med nylige debatter om AI‑styring og de geopolitiske innsatsene knyttet til modelltilgang som vi dekket i vår artikkel 17. april om Altmans sikkerhetsklareringssaga. Hva du bør holde øye med videre: Zoom vil
50

5+ ting du bør vite om den neste Mac Studio

Mastodon +6 kilder mastodon
apple
Apple gjør seg klar til å erstatte Mac Studio fra 2022 med en langt kraftigere etterfølger, ifølge en fersk MacRumors‑oppsummering publisert 17. april. Den nye modellen, som er planlagt lansert i 2026, vil leveres med Apples kommende M5 Max‑ og M5 Ultra‑brikker, og vil løfte skrivebordets beregningskapasitet langt over dagens M2 Ultra. Tidlige lekkasjer tyder på kun‑AV1‑videodekoding, maskinvare‑akselerert ray tracing og Thunderbolt 5, mens minne‑ og lagringsalternativene utvides til imponerende 512 GB RAM og 16 TB SSD i den øverste Ultra‑konfigurasjonen. Hvorfor dette er viktig er tosidig. For det første bringer den oppgraderte silisiumen Apples desktop‑serie i tråd med de tunge AI‑ og generativ‑innholdsarbeidsbelastningene som har blitt mainstream i Norden, hvor studioer og mediehus allerede distribuerer store språkmodeller lokalt. For det andre lover inkluderingen av Wi‑Fi 7, Bluetooth
47

Kevin Weil 🇺🇸 (@kevinweil) på X

Mastodon +6 kilder mastodon
openai
OpenAIs interne «Science»-enhet blir oppløst, og OpenAI for Science‑programmet skal avvikles med ansatte fordelt på andre forskningsteam, kunngjorde selskapets visepresident for vitenskap, Kevin Weil, på X. Weils innlegg, delt 22. april, rammer omstillingen som en «omorganisering for å akselerere vitenskap», og signaliserer et skifte fra en dedikert, sentralisert AI‑for‑vitenskap‑gruppe til en mer integrert modell innenfor OpenAIs bredere forskningsmotor. Endringen kommer kun dager etter at OpenAI bekreftet avgangene til Kevin Weil og Bill Peebles, en utvikling vi dekket 18. april. Deres avgang antydet en bredere kutting av sideprosjekter, og dagens restrukturering bekrefter at firmaet konsoliderer sine vitenskapelige ambisjoner under hovedprodukt‑ og modellteamene i stedet for å opprettholde en frittstående avdeling. Ved å spre AI‑drevet forskningskompetanse gjennom organisasjonen håper OpenAI å integrere vitenskapelige verktøy direkte i sine flaggskip‑modeller, noe som potensielt kan fremskynde utrullingen av funksjoner som automatisert hypotese‑generering, hjelp til protein‑folding og klimamodell‑plugins. Bransjeobservatører ser på tiltaket både som en mulighet og en risiko. På den ene siden kan tettere integrasjon akselerere utrullingen av AI‑drevne forskningsverktøy og gi OpenAI et konkurransefortrinn i det voksende AI‑for‑vitenskap‑markedet. På den andre siden kan tapet av en fokusert vitenskapsenhet fortynne ekspertisen, bremse langsiktige prosjekter og forstyrre samarbeid med akademiske laboratorier som har sett på OpenAI for Science som ett kontaktpunkt. Hva man bør følge med på videre: kunngjøringer av ny ledelse for de spredte teamene, eventuelle reviderte partnerskapsavtaler med universiteter eller forskningsinstitusjoner, samt den første bølgen av vitenskapelige funksjoner som rulles ut i kommende modellutgivelser. Samfunnet vil også være ivrig etter å se om OpenAI publiserer en veikart for sin AI‑drevne forskningsagenda, noe som kan sette tonen for neste fase av AI‑drevet oppdagelsesarbeid.
44

En arkitektur som kombinerer konvolusjonelt nevralt nettverk (CNN) og støttevektormaskin (SVM) for bildeklassifisering

Dev.to +7 kilder dev.to
vector-db
Et team av forskere fra Indian Institute of Technology har avdekket en hybridmodell som kombinerer et konvolusjonelt nevralt nettverk (CNN) med en støttevektormaskin (SVM) for å øke nøyaktigheten i bildeklassifisering. Studien, som ble lagt ut på arXiv denne uken, erstatter det konvensjonelle softmax‑laget på slutten av et CNN med en SVM‑klassifikator, og finjusterer deretter den kombinerte arkitekturen på benchmark‑datasett som CIFAR‑10, en ImageNet‑undergruppe og en medisinsk samling av neglesykdommer. Rapporterte gevinster varierer fra 1,8 prosentpoeng på CIFAR‑10 til imponerende 5,2 poeng på neglesykdomssettet, hvor data er knappe og klasseubalanse er alvorlig. Betydningen ligger i å adressere to langvarige utfordringer med dype visjonsmodeller. For det første kan softmax‑lag overtilpasse når treningsdata er begrenset; SVM‑er, med sitt margin‑maksimerende mål, er mer robuste i små‑prøve‑regimer. For det andre bevarer den hybride tilnærmingen den automatiske funksjonsutvinningen fra CNN‑er samtidig som den utnytter de velkjente generaliseringsegenskapene til kjernebaserte klassifikatorer. Tidlige brukere innen medisinsk bildediagnostikk og industriell inspeksjon har allerede rapportert raskere konvergens og lavere falske‑positiv‑rater, noe som tyder på at metoden kan redusere det beregningsmessige budsjettet for AI på kanten. Forfatterne planlegger å utvide rammeverket til fler‑etikett‑oppgaver og å utforske alternative kjerner som kan læres ende‑til‑ende. Industrifolk vil følge med på integrering i populære dyp‑læringsbiblioteker som PyTorch og TensorFlow, noe som kan akselerere adopsjonen i produksjons‑pipelines. En kommende benchmark på CVPR 2026‑workshopen vil sette CNN‑SVM‑kombinasjonen opp mot rene transformer‑baserte visjonsmodeller, og gi et tydelig signal på om hybridmodellen kan holde mål når feltet beveger seg mot stadig større, data‑tørste arkitekturer.
44

Én rykte om farge for iPhone 18 Pro? En rik mørk kirsebærrød

Mastodon +6 kilder mastodon
apple
Apple s kommende iPhone 18 Pro kan komme i kun én iøynefallende ny nyanse: Dark Cherry, en dyp vinrød som vil erstatte den lyse Cosmic Orange som debuterte på iPhone 17 Pro. Detaljen dukket opp i et CNET‑innlegg som lenker til Bloomberg‑journalisten Mark Gurman, som først antydet en «rik rød» for 2026‑flagshippen. Leverandørkjede‑lekkasjer bekrefter skiftet, og viser at Apples fargepalett smalner inn til Dark Cherry sammen med tre mer dempede toner. Endringen er viktig fordi Apples fargevalg har blitt en subtil barometer for selskapets markedsstrategi. Dark Cherry signaliserer et skifte mot premium, nedtonet estetikk som samsvarer med selskapets nylige fokus på luksuriøse overflater og høyere margin‑tilbehør. Det reflekterer også merkets svar på forbrukertrøtthet med den neon‑lyse paletten som dominerte de to foregående generasjonene. Ved å konsolidere sortimentet rundt en sofistikert nyanse, kan Apple forsøke å tiltrekke seg profesjonelle brukere og motebevisste kjøpere som ser enheten både som et statussymbol og et verktøy. Det neste å holde øye med er om Dark Cherry‑alternativet blir eksklusivt for Pro‑modellene eller rulles ut på hele iPhone 18‑familien. Analytikere vil også følge med på Apples offisielle fargeavsløring under september‑lanseringen, hvor selskapet kan bekrefte eller avkrefte rykten. En bekreftet Dark Cherry kan utløse tidlige forhåndsbestillingsspiker, spesielt i markeder hvor fargedifferensiering driver salget, og kan påvirke ettermarkedets de
44

Google Gemma (@googlegemma) på X

Mastodon +6 kilder mastodon
geminigemmagoogle
Google sitt AI‑team har lagt ut en kort video på X som viser hvordan man kan kjøre den nyeste Gemma 4‑modellen direkte på en iPhone, helt uten nettforbindelse. Demonstrasjonen fremhever at modellen kan håndtere lange kontekst‑spørsmål uten å berøre skyen, noe som eliminerer kostnader for dataoverføring, API‑avgifter og eventuelle løpende abonnementer. Klippet, delt fra @googlegemma‑kontoen, guider seerne gjennom installasjonstrinnene og viser en sanntids‑chat‑sesjon som kjøres fullt ut på enhetens prosessor. Dette er viktig fordi det flytter grensen for edge‑AI fra bærbare PC‑er og servere til håndholdt forbruker‑maskinvare. Ved å utnytte den samme forskningen som ligger til grunn for Googles Gemini‑serie, tilbyr Gemma 4 en lett, men likevel kraftig stor språkmodell som kan integreres i apper uten å eksponere brukerdata for eksterne servere. For nordiske brukere, hvor personvernreguleringer er strenge og mobiltilkobling kan være ustabil i avsidesliggende områder, åpner en offline LLM nye muligheter for sikre personlige assistenter, oversettelse på enheten og lokalisert innholdsgenerering. Det signaliserer også at Google har som mål å konkurrere med Apples egne språkmodeller på enheten og med Metas open‑source‑initiativer, noe som potensielt kan endre økonomien rundt AI‑drevne mobiltjenester. Som vi rapporterte 16. april, har Gemma‑familien allerede vist sin effektivitet på CPU‑er, med Gemma2B som overgikk GPT‑3.5 Turbo i benchmark‑tester. iPhone‑utrullingen tyder på at Google nå omsetter denne effektiviteten til en forbruker‑klar formfaktor. De neste stegene å følge med på inkluderer ytelses‑benchmarker på Apples M‑serie‑brikker, lanseringen av utviklerverktøysett for iOS‑integrasjon, og om Google vil utvide offline‑støtten til andre plattformer som Android‑nettbrett eller wearables. Bransjeobservatører vil også være ivrige etter å se hvordan modellens nøyaktighet og sikkerhetskontroller holder seg når sky‑baserte moderasjonslag fjernes.
41

fly51fly (@fly51fly) på X

Mastodon +6 kilder mastodon
reasoning
Fly51fly, en utvikler kjent for å dele AI‑relaterte eksperimenter på X, kunngjorde et nytt forskningsprosjekt som har som mål å gjøre inferens for store språkmodeller (LLM) mer token‑effektiv. I et kort innlegg beskrev kontoen «regulert prompt‑optimalisering» som en teknikk som reduserer antallet tokens som kreves for en gitt resonneringsoppgave, samtidig som den bevarer – eller til og med forbedrer – kvaliteten på outputen. Tilnærmingen hviler på dynamisk justering av prompts basert på mellomliggende modelltilbakemeldinger, noe som gjør at systemet kan konvergere mot svar med færre fremover‑pass. Kunngjøringen bygger på tråden vi dekket 6. april 2026, da fly51fly først antydet at de utforsket strategier for prompt‑tuning. Denne siste oppdateringen går utover teorien og presenterer tidlige benchmark‑resultater som viser opptil 30 % reduksjon i token‑forbruk på standard resonneringsdatasett som GSM‑8K og MMLU, med neglisjerbar tap i nøyaktighet. Dersom resultatene skalerer, kan metoden føre til betydelige kostnadsbesparelser for virksomheter som kjører inferens‑arbeidsbelastninger på sky‑GPU‑er eller spesialiserte akseleratorer, hvor token‑antall direkte påvirker prisene. Bransjeobservatører påpeker at token‑effektivitet blir en konkurransefront etter hvert som LLM‑er blir større og inferens‑budsjetter strammes inn. Ved å kutte token‑bruk kan utviklere senke latens, redusere energiforbruket og gjøre avanserte modeller mer tilgjengelige for mindre aktører. Teknikken passer også inn i den fremvoksende trenden med «prompt engineering»-plattformer som har som mål å automatisere prompt‑forbedring. Hva som er verdt å følge med på: fly51fly lover en kommende pre‑print som detaljert beskriver det algoritmiske rammeverket og en åpen kildekode‑repo. Forskere vil være ivrige etter å se hvordan metoden integreres med eksisterende kvantisering‑ og destillasjonspipelines. Sky‑leverandører kan også svare med nye prisnivåer eller verktøy som utnytter token‑effektiv prompting, noe som potensielt kan omforme økonomien i AI‑tjenester i Norden og utover.
41

Kan din neste telefon bli en foldbar? Ny teknologi og en mulig Apple-modell gjør det mer sannsynlig

Mastodon +6 kilder mastodon
apple
Apples siste patent antyder at teknologigiganten nærmer seg en foldbar iPhone, en utvikling som kan omforme premium‑smarttelefonmarkedet og fremskynde sammensmeltingen av AI‑drevet maskinvare. Innsendingen, datert 21. mai 2024, beskriver en enhet som folder seg innover langs en hengsel, samtidig som den beholder et «selvhelbredende» OLED‑panel som kan reparere mikroskraper gjennom innebygde polymerlag. Patentet refererer også til en stor språkmodell (LLM) på enheten som vil håndtere diagnostikk av skjadeskader på skjermen og aktivere helbredelsesprosessen autonomt, noe som antyder en dypere AI‑integrasjon enn Apple tidligere har avslørt. Dette er viktig fordi foldbare enheter lenge har vært dominert av Android‑produsenter, hovedsakelig Samsung, som i sin 2026‑plan legger vekt på tynnere chassis, større batterier og kamera‑sentrerte design. Apples inntog vil bringe sitt økosystem, programvareoptimalisering og merkevareprestisje til en formfaktor som har slitt med å oppnå bred aksept på grunn av holdbarhetsbekymringer og høye priser. Et selvhelbredende skjerm løser direkte holdbarhetsutfordringen, mens den innebygde LLM‑en kan muliggjøre kontekstbevisste UI‑tilpasninger – for eksempel utvidelse av multitasking‑paneler når enheten er utfoldet – og potensielt redefinere hvordan brukere interagerer med iOS.
41

MacRumors Show: Hva er neste for iPad

Mastodon +6 kilder mastodon
apple
Apple sin iPad‑veikart tok sentrum i den siste episoden av **The MacRumors Show**, hvor programleder Sigurd Sætre og analytiker Federico Viticci gikk i dybden på selskapets forestående maskinvare‑oppdatering. Panelet bekreftet at iPad mini vil få sin åttende generasjon med en full‑ramme OLED‑skjerm, 120 Hz oppdateringsfrekvens og en Touch ID‑sensor under skjermen, i en designstil som speiler iPad Air. Den nye mini‑modellen forventes å leveres med en A‑serie‑prosessor – sannsynligvis A‑17 – mens iPad Air skal få Apples neste‑generasjons M4‑brikke, som bringer AI‑akselerasjon på enheten i tråd med selskapets satsning på **Apple Intelligence**. Hvorfor dette er viktig, er todelt. For det første signaliserer innføringen av OLED i mellomklassen at Apple har som mål å standardisere premium‑skjermer også utenfor Pro‑serien, noe som kan minske det visuelle gapet til Android‑flagship‑modeller og rettferdiggjøre høyere prisnivåer. For det andre gjør den M4‑drevne iPad Air nettbrettet til en ekte produktivitetsenhet, i stand til å kjøre store språk‑modell‑arbeidsbelastninger lokalt – en funksjon som ble antydet i de siste iPadOS 18‑beta‑versjonene. Skiftet kan endre utvikleres tilnærming til AI‑forsterkede apper, særlig etter hvert som Apples egne LLM‑tjenester blir tettere integrert. Det som nå er verdt å følge med på, er de formelle kunngjøringene som er planlagt til Apples **“Let loose”**‑arrangement senere denne måneden og WWDC‑talen i juni. Viktige signaler vil være de eksakte chip‑spesifikasjonene, prisnivåene og lanseringsdatoene for iPad mini 8 og M4‑Air, samt eventuell bekreftelse på at iPad Pro også vil ta i bruk M4. Lekkasjer fra forsyningskjeden, FCC‑innleveringer og tidlige programvare‑demoer vil gi de første konkrete ledetrådene om hvordan Apple planlegger å veve AI inn i tablet‑økosystemet. Som vi rapporterte 15. april, er OLED‑iPad Mini allerede på horisonten; dagens diskusjon bekrefter at utrullingen er nært forestående og mer omfattende enn tidligere antatt.
41

Forsinkelser i datasentre truer å kvele AI‑utvidelsen

Mastodon +6 kilder mastodon
microsoftopenai
Forsinkelser i byggingen av nye datasentre i USA vil bremse utrullingen av generative‑AI‑tjenester fra sektorens største aktører. Bransjeanalytikere anslår at nesten 40 prosent av prosjektene som var planlagt ferdigstilt i år – inkludert Microsofts Azure AI‑knutepunkter, OpenAIs superdataklynger og Amazons AWS‑anlegg for «train‑and‑serve» – nå risikerer å gå glipp av måldatoene med flere måneder. Flaskehalsen skyldes en perfekt storm av leverandørkjede‑mangel, skyhøye byggekostnader og strengere tillatelsesregler i viktige delstater som Texas og Virginia. Prisøkninger på energi som følge av Iran‑Ukraina‑konflikten har også tvunget utviklere til å redesigne kjølesystemer, noe som ytterligere skyver tidsplanene. Siden trening av de nyeste store språkmodellene kan kreve megawatt med strøm i flere uker, betyr enhver mangel på kapasitet direkte tregere modelliterasjon, forsinkede produktlanseringer og høyere sky‑tjenesteavgifter for kundene. For AI‑kappløpet er virkningen umiddelbar. Microsofts lovede oppgraderinger av «Azure OpenAI Service», OpenAIs neste generasjons‑GPT‑5‑utrulling og Googles TPU‑v5‑pods er alle avhengige av den nye kapasiteten for å møte den økende etterspørselen fra bedrifter og utviklere. En forsinkelse i tilbudet kan gi europeiske og asiatiske konkurrenter – som akselererer modulære, fornybar‑drevne datasentre – et konkurransefortrinn, og kan tvinge amerikanske selskaper til å leie tredjepartskapasitet til premiumpriser. Interessenter vil følge resultatpresentasjoner for reviderte kapitalutgiftsprognoser, samt eventuelle politiske tiltak som tar sikte på å lette planleggingsrestriksjoner eller stimulere til integrering av grønn energi. En økning i modulære datasenterutplasseringer og økt investering i kant‑databehandlingsinfrastruktur kan også dempe den kortsiktige knipen. De neste ukene vil vise om sektoren klarer å justere byggeplanene før AI‑markedets vekstkurve stiger ytterligere.
41

**Introduksjon av Trusted Access for Cyber**

Mastodon +6 kilder mastodon
anthropicopenai
OpenAI avduket et nytt “Trusted Access for Cyber” (TAC)-rammeverk 16. april, som gir godkjente cybersikkerhetsteam tilgang til sine mest kraftfulle modeller, inkludert GPT‑5.3‑Codex og den nyutgitte GPT‑5.4‑Cyber. Selskapet rammer inn tiltaket som et sikkerhets‑første svar på oppfatningen om at «modellene våre er for farlige til å slippe løs også», og velger identitets‑ og tillitsbasert godkjenning fremfor en åpen, offentlig utrulling. Programmet bygger videre på OpenAIs tidligere begrensede tilgangstilbud, som det livsvitenskaps‑fokuserte GPT‑Rosalind som ble kunngjort 17. april, og speiler Det hvite husets beslutning samme dag om å gi amerikanske etater Anthropic‑modellen Mythos. Ved å begrense AI med frontlinjekapasitet til verifiserte forsvarere, håper OpenAI å fremskynde trusselinformasjon, automatisert hendelsesrespons og sårbarhetsanalyse, samtidig som risikoen for at de samme verktøyene blir brukt som våpen av angripere reduseres. Bransjeobservatører mener lanseringen kan omforme markedet for cyber‑forsvar. Dersom TAC‑modellen viser seg effektiv, kan bedrifter legge press på konkurrenter om å innføre tilsvarende tillitslag, noe som potensielt kan standardisere et nytt nivå av «sikker AI»-tjenester. Samtidig vil regulatorer sannsynligvis granske godkjenningskriteriene, forpliktelsene knyttet til databehandling og ansvarsrammene som følger med slik privilegert tilgang. **Hva som er verdt å følge videre:** OpenAIs utrullingsplan og de konkrete kvalifikasjonskravene for selskaper, offentlige organer og leverandører av administrert sikkerhet; eventuell motstand fra menneskerettighetsgrupper som er bekymret for utransparente tillitsbeslutninger; og om den amerikanske regjeringen vil utvide sine egne AI‑tilgangsprogrammer utover Anthropic til også å omfatte OpenAIs TAC‑pakke. De kommende ukene vil vise om modeller med betrodd tilgang blir den de‑facto kanalen for AI‑drevet cyber‑forsvar, eller om de forblir et nisjetilbud for et begrenset antall.
38

Er datacenterdagens æra på vei til å ta slutt?

Mastodon +6 kilder mastodon
openai
Et innlegg på Brad Delongs Substack har gjenopplivet debatten om hvorvidt massive datasenter‑gårder fortsatt vil være ryggraden i AI. Delong hevder at et håndfull høyt finjusterte modeller som kjører på 50 Mac Mini‑maskiner kan levere nyttig inferens for en brøkdel av en cent per spørring – flere størrelsesordener billigere enn skybaserte tilbud fra OpenAI, Anthropic og deres konkurrenter. Påstanden hviler på nylige fremskritt innen modellkomprimering, kvantisering og optimalisering på enheten som gjør at «små» silisium kan kjøre store språkmodell‑arbeidsbelastninger uten latens‑ og energikostnadene ved eksterne servere. Argumentet er viktig fordi bransjen allerede kjenner på presset fra datasenterutvidelsen. Som vi rapporterte 18. april, fører byggeforsinkelser, skyhøye strømkostnader og en økende tverrpolitisk motstand til at AI‑veksten bremses. Maine innførte den første statlige moratoriet på prosjekter over 20 MW, som skal vare til 2027,
36

Forklarbare grafnevrale nettverk for overvåkning av interbankkontagion: Et regulatorisk tilpasset rammeverk for den amerikanske banksektoren

ArXiv +5 kilder arxiv
Et team av forskere fra University of Texas og Federal Reserve har publisert en ny pre‑print, «Explainable Graph Neural Networks for Interbank Contagion Surveillance», som introduserer Spatial‑Temporal Graph Attention Network (ST‑GAT). Modellen kombinerer graf‑nevrale‑nettverk‑meldingspassing med tidsmessig oppmerksomhet for å kartlegge det amerikanske interbank utlånsnettet, ved å bruke daglige FDIC Call Report‑data og CAMELS‑indikatorer. Ved å fremheve hvilke motparter og risikofaktorer som driver en økende distress‑score, gir ST‑GAT regulatorer et tidlig varselsystem som både er prediktivt og reviderbart. Kunngjøringen er viktig fordi overvåkning av systemisk risiko lenge har vært avhengig av samlede indikatorer eller ugjennomsiktige maskin‑lærings‑svartbokser som regulatorer har vanskelig for å rettferdiggjøre i henhold til SR 11‑7‑veiledningen. En forklarbar arkitektur gjør det mulig for tilsynsmyndigheter å spore en banks bidrag til kontagion‑veier, og støtter mer målrettede inngrep før en krise sprer seg. Tilnærmingen er også i tråd med den økende etterspørselen etter transparent AI i finans, og svarer på nylige krav om XAI‑standarder i sektoren. Det som nå er å følge med på, er hvor raskt rammeverket går fra akademisk prototype til operativt verktøy. Financial Stability Oversight Council i Federal Reserve har signalisert interesse for pilotprosjekter, og FDIC forventes å teste ST‑GAT mot sin egen stresstest‑pipeline senere i år. Parallelle initiativer i European Central Bank for å integrere graf‑basert risikaanalyse tyder på en bredere regulatorisk endring. Hvis modellen viser seg robust i reelle back‑testing‑scenarioer, kan den omforme makro‑prudentiell overvåkning, få banker til å offentliggjøre mer granulære nettverksdata og sette i gang en ny bølge av forklarbare‑AI‑reguleringer.
35

AirPods Pro 3 er nå $50 billigere, nesten på sin laveste pris noensinne

Mastodon +6 kilder mastodon
apple
Apple har kuttet prisen på sine AirPods Pro i tredje generasjon med $50, og bringer de flaggskip‑øreproppene ned til litt under $200 i de fleste markeder. Rabatten, som ble kunngjort på The Verge og gjentatt av flere europeiske forhandlere, tilsvarer den laveste prisen modellen har hatt siden lanseringen sent i 2023. Kuttet kommer mens Apple forbereder seg på neste bølge av bærbare enheter. Analytikere forventer at AirPods 4, som ryktes å ha en ny driverarkitektur og dypere integrasjon med Vision Pro, vil komme senere i år. Ved å senke kostnaden for den nåværende generasjonen kan Apple tømme lageret samtidig som de holder AirPods‑serien attraktiv for prisfølsomme kjøpere, spesielt i Norden hvor premium‑lydprodukter konkurrerer med lokalt populære merker som Jabra og Sony. For forbrukerne betyr avtalen tilgang til Pro‑ens kjennetegnende funksjoner – aktiv støydemping, romlyd med dynamisk hodesporing og et sømløst H1‑brikkedrevet økosystem – til en pris som kan måle seg med mellomklasse‑konkurrentene. Tidlige adoptere som gikk glipp av den første lanseringsrabatten har nå en levedyktig oppgraderingsvei fra eldre AirPods eller fra konkurrerende ekte trådløse ørepropper. Prisendringen signaliserer også Apples bredere strategi med å bruke midlertidige prisnedsettelser for å opprettholde salgsmomentum mellom produktsykluser. Observatører vil følge med på om rabatten fører til en merkbar økning i enhetsleveranser i den før‑ferieperioden, og hvordan den påvirker prisene på kommende modeller. De neste ukene vil avsløre om Apple forlenger kampanjen, introduserer pakkel
35

OpenAI (@OpenAI) på X

Mastodon +6 kilder mastodon
openai
OpenAI har tatt sitt første steg inn i biomedisin et skritt videre, og avduket en detaljert gjennomgang av «Life Sciences»-modellserien den introduserte forrige uke. I et halvtime langt program av OpenAI‑podcast forklarte forskningsleder Joy Jiao og produktansvarlig Yunyun Wang hvordan modellene er konstruert for biologi, legemiddelforskning og translational medisin, og beskrev konkrete bruksområder fra proteinstruktur‑prediksjon til hypotese‑generering for nye terapeutika. Diskusjonen bygger på den begrensede‑tilgang‑GPT‑Rosalind‑modellen kunngjort 17. april, som markerte OpenAIs første offentlige tilbud av en stor språkmodell finjustert for livsvitenskapelige arbeidsbelastninger. Ved å utdype veikartet signaliserer selskapet at serien går fra prototype‑stadiet mot bredere tilgjengelighet for akademiske laboratorier og farmasøytiske partnere. Hvorfor dette er viktig er todelt. For det første har biotek‑sektoren lenge vært avhengig av spesialiserte verktøy som DeepMinds AlphaFold; en allsidig LLM som kan tolke vitenskapelig litteratur, foreslå eksperimentelle design og utforme regulatoriske dokumenter, kan komprimere år med forskning til måneder. For det andre intensiverer OpenAIs inntog konkurransen om AI‑drevede legemiddelpipelines, noe som potensielt kan omforme finansieringsstrømmer og tvinge regulatorer til å håndtere AI‑genererte påstander. Det som bør følges med på videre er utrullingsmekanikkene. OpenAI har antydet en lagdelt tilgangsmodell som vil kombinere API‑endepunkter med sikkerhetslag, og podkasten nevnte kommende samarbeid med store farmasøytiske selskaper for å pilotere teknologien på virkelige pipelines. Ytelses‑benchmarker, spesielt på oppgaver som de‑novo‑molekyl‑design, vil bli gransket av både investorer og det vitenskapelige fellesskapet. En formell lanseringsdato, prisstruktur og eventuelle partnerskapskunngjøringer vil sannsynligvis komme i løpet av de kommende ukene, og vil sette tempoet for AI‑ens rolle i neste bølge av medisinske gjennombrudd.
35

Gökdeniz Gülmez (@ActuallyIsaak) på X

Mastodon +6 kilder mastodon
applebenchmarks
Apple har introdusert MLX‑Benchmark Suite, den første omfattende benchmarken designet for å evaluere ytelsen til store språkmodeller (LLM) på sitt åpne kildekode‑rammeverk MLX. Kunngjort av ML‑forsker Gökdeniz Gülmez på X, samler pakken et kommandolinje‑grensesnitt og et kuratert datasett som tester en modells evne til å forstå, generere og feilsøke kode. Ved å automatisere disse kjerneoppgavene for utviklere gir verktøyet ingeniører en konkret måte å sammenligne hvordan ulike LLM‑er kjører på Apple‑silicon og å finjustere inferens‑pipelines. Utgivelsen er viktig fordi Apples MLX‑rammeverk, lansert tidligere i år, lover høy gjennomstrømning og lav latens for AI‑arbeidsbelastninger på selskapets M‑serie‑brikker. Fram til nå har utviklere manglet en standardisert målestokk for å måle LLM‑effektivitet og nøyaktighet innen dette økosystemet. Benchmarken fyller dette gapet, og tilbyr en reproduserbar basislinje som kan akselerere adopsjonen av Apple‑sentraliserte AI‑løsninger og informere beslutninger om maskinvare‑programvare‑samskaping. Dens åpne kildekode‑natur inviterer også til bidrag fra fellesskapet, og kan potensielt gjøre pakken til en de‑facto referanse for det bredere AI‑på‑Apple‑markedet. Ser man fremover, vil fellesskapet følge med på de første publiserte resultatene, som bør avdekke hvordan Apples egne modeller presterer i forhold til åpne alternativer som LLaMA eller Falcon når de kjøres på M‑serie‑GPU‑er. Apple kan integrere benchmarken i sin utviklerportal, og gjøre ytelses‑dashboards offentlig tilgjengelige. Videre oppdateringer kan inkludere utvidede oppgavekategorier—bortenfor kode—som dekker naturlig språk‑resonnement, samt tettere integrasjon med Xcodes profileringsverktøy. Benchmarkens utvikling vil sannsynligvis forme de konkurrerende dynamikkene mellom Apples ML‑stack og andre maskinvare‑agnostiske rammeverk som PyTorch og TensorFlow.
35

En Apple‑leder som gikk av etter 31 år delte den nostalgiske sjekklisten fra sin siste dag

Mastodon +6 kilder mastodon
apple
Apple sin langvarige produkt‑markedsføringssjef Stan Ng har offisielt trådt tilbake etter en 31‑årsperiode som spenner over lanseringen av iPod, iPhone, Apple Watch og AirPods. I et LinkedIn‑innlegg som raskt ble viralt, publiserte Ng en «nostalgisk sjekkliste» over ritualene han fullførte på sin siste dag i Apple Park, fra å se soloppgangen over campus til å ta en ensom sykkeltur rundt den sirkulære ringen som omkranser hovedkvarteret. Listen inneholdt også en rask gjennomgang av innboksen, en siste spasertur gjennom designstudioene der Apple Watch og AirPods først ble skisset, og en symbolsk «sign‑off» på markedsførings‑deckene for den kommende produkt‑syklusen. Pensjoneringen markerer avgangen til en av de få lederne som har hatt ansvar for Apples forbruker‑hardware‑markedsføring gjennom tre produktgenerasjoner. Ng sin avgang kommer i en periode der selskapet akselererer sin satsing på helseteknologi, utvidet virkelighet og AI‑drevet tjenester – områder som nå vil bli ledet av en yngre gruppe ledere. Analytikere ser hans avgang som en litmus‑test på hvor smidig Apple kan overføre sin merkevare‑fortelling uten den stabile hånd som bidro til å forme de ikoniske kampanjene «Shot on iPhone» og «Feel the Beat». Bransjeobservatører vil følge nøye med på hvem Apple utnevner til å fylle den ledige VP‑stillingen, og om den nye lederen vil legge større vekt på generativ‑AI‑verktøy i kampanjekreasjon – en trend Ng hintet til ved å nevne at han brukte en LLM til å utforme deler av sin avskjedshilsen. Flyttingen reiser også spørsmål om talent‑bevaring i Silicon Valleys aldrende lederstabel, spesielt ettersom konkurrenter som Google og Microsoft satser hardt på AI‑sentrisk markedsføring. De kommende ukene vil avdekke Apples etterfølgerplan og signalisere hvordan selskapet har tenkt å holde sin produkt‑historiefortelling frisk i et stadig mer AI‑drevet marked.
32

Kunstig intelligens har et meldingsproblem av egen opphav

Mastodon +6 kilder mastodon
anthropicdeepmindgoogle
AI‑selskaper står overfor en ny type motstand: måten modellene deres snakker til brukerne på. Etter en bølge av kritikk som påpeker at chat‑boter ofte gir altfor forsiktige, unnvikende eller til og med nedlatende svar, vender selskapene seg nå til filosofer og geistlige for å omskrive «stemmen» i produktene sine. Google DeepMind kunngjorde i forrige uke at de har ansatt en intern filosof for å revidere språket i sine nyeste modeller – et trekk som speiler Anthropics nylige beslutning om å samle en gruppe kristne ledere for å vurdere den moralske tonen i deres chat‑grensesnitt. Skiftet kommer i kjølvannet av økende uro blant regulatorer, forbrukerorganisasjoner og etikere som argumenterer for at AI‑genererte meldinger kan påvirke meninger på subtile måter, forsterke fordommer eller skyve ansvaret bort. Ved å bringe akademiske og religiøse perspektiver inn i utviklingsprosessen, håper selskapene å lage svar som er transparente, respektfulle og i tråd med bredere samfunnsverdier. DeepMinds filosof, Dr. Mira Patel, skal samarbeide med ingeniører for å flagge formuleringer som kan oppfattes som paternalistiske eller misvisende, mens Anthropic‑s interreligiøse verksted har produsert et sett med retningslinjer for håndtering av temaer som tro, dødelighet og personlig rådgivning. Hvorfor dette er viktig er todelt. For det første er meldingsutvekslingen den mest synlige grensesnittet mellom AI og publikum; feil kan undergrave tilliten raskere enn tekniske feil. For det andre signaliserer initiativet en bredere bransjetrend med å institusjonalisere etisk tilsyn, som svar på nylige skandaler rundt «nudify»-apper og uutprøvd selv‑forbedrende kode som har tiltrukket seg oppmerksomhet fra EU‑regulatorer. Det neste å holde øye med er de konkrete resultatene av disse eksperimentene. Begge selskapene har lovet å publisere «meldingsrevisjoner» senere i år, og Europakommisjonen forventes å utforme en frivillig atferdskode for AI‑kommunikasjon. Hvis de nye retningslinjene viser seg effektive, kan de bli en mal for sektoren, og få andre aktører – fra oppstarts‑chat‑tjenester til etablerte teknologigiganter – til å integrere filosofer, teologer eller etikere i sine produktlinjer. De kommende månedene vil vise om en mer reflektert tone kan gjenopprette tilliten eller bare legge til et ekstra lag med bedrifts‑posturing.
32

Microsoft Surface‑prishopp fører til minnemangel: Hvilken stor leverandør av lagrings‑brikker—SK Hynix, Micron eller SanDisk—gir best investeringsverdi?

Mastodon +6 kilder mastodon
agentschipscopilotmicrosoft
Microsoft har hevet prisene på sin Surface‑serie, og lagt til 100 – 500 USD på de fleste modellene mens bransjen sliter med en ny RAM‑mangel. Prisøkningen, som er bekreftet av Microsofts egne nettbutikk‑oppføringer og rapportert av Windows Central, gjenspeiler de stigende kostnadene for DRAM‑ og NAND‑brikker som har blitt presset av etterspørselsboomer i pandemiperioden, flaskehalser i forsyningskjeden og en økning i AI‑drevne datasentre. Ved å overføre de høyere komponentkostnadene på forbrukerne signaliserer Microsoft at mangelen ikke lenger er en midlertidig glipp, men en strukturell begrensning som påvirker premium‑PC‑markedet. Dette treffer mer enn bare laptop‑segmentet og kaster de tre største minnebrikkprodusentene—SK Hynix, Micron og SanDisk (Western Digital‑s NAND‑avdeling)—inn i investeringsspotlightet. SK Hynix, verdens nest største DRAM‑leverandør, drar nytte av sitt aggressive kapasitetsutvidelsesprogram i Sør‑Korea, som har som mål å legge til over 300 GB per sekund med ny produksjon innen 2027. Micron, den eneste amerikanske DRAM‑produsenten, har kjempet for å øke sin 3‑D‑stablede teknologi, men inntjeningen forblir volatil på grunn av svingende etterspørsel fra både forbruker‑PC‑er og bedrifts‑AI‑arbeidsbelastninger. SanDisk, selv om den primært er en NAND‑spiller, nyter en diversifisert portefølje som inkluderer solid‑state‑drives for datasenter‑servere, et segment som vokser ettersom generative‑AI‑modeller krever stadig mer lagringskapasitet. Investorer bør følge kvartalsresultatene for ledetråder om hvordan hvert selskap balanserer lagerbeholdningen mot den vedvarende chip‑overskuddet, samt kunngjøringer om ny fabrikk‑kapasitet eller joint ventures som kan tippe den konkurranse­messige balansen. En ytterligere prisjustering fra Microsoft, eller et skifte mot alternativ silisium som LPDDR5X, vil teste etterspørselselastisiteten og kan omforme inntektsutsiktene for de tre produsentene. Den kommende inntjeningssesongen, planlagt til tidlig Q3, vil sannsynligvis avsløre hvilken chipprodusent som er best posisjonert til å tjene på den pågående minnemangelen.
32

fly51fly (@fly51fly) på X

Mastodon +6 kilder mastodon
Den kinesiske AI‑forskeren og BUPT‑professoren fly51fly kunngjorde en ny tilnærming for å utvide store språkmodellers (LLM‑ers) evne til å håndtere svært lange innspill. I et innlegg på X introduserte han «Shuffle the Context», en selv‑destillasjonsteknikk som justerer den populære Rotary Positional Embedding (RoPE) for bedre å bevare informasjon over utvidede token‑vinduer. Ved å tilfeldig permutere segmenter av konteksten under en lærer‑student‑treningssløyfe, tvinger metoden modellen til å lære posisjonsagnostiske representasjoner samtidig som den respekterer rekkefølgen, noe som gjør at den kan beholde sammenheng over titusenvis av token. Dette gjennombruddet er viktig fordi håndtering av lange kontekster fortsatt er en sentral flaskehals for LLM‑er som brukes i virkelige applikasjoner
32

scythe@八方塞がり (@keiyotokei) på X

Mastodon +6 kilder mastodon
gpt-5openai
OpenAI har lansert GPT‑5.4‑Pro, en ny høyytelses stor språkmodell som tilbys til en basispris på 100 USD per måned. Kunngjøringen, publisert av X‑bruker @keiyotokei, signaliserer selskapets satsing på å gjøre sine mest kapable modeller økonomisk mer tilgjengelige etter en periode med kun premium‑priser for bedriftskunder. Dette trekket er viktig fordi det reduserer gapet mellom banebrytende kunstig intelligens og budsjettene til små bedrifter, forskningslabber og til og med avanserte hobbyister. Inntil nå har de kraftigste versjonene av OpenAIs modeller – som GPT‑4 Turbo – i praksis vært låst bak bruksbaserte API‑avgifter eller kostbare bedriftskontrakter. En fast pris på 100 USD gjør en “pro‑grad” modell innen rekkevidde for mange nordiske oppstartsbedrifter som har vært tvunget til å bruke eldre versjoner eller konkurrerende tjenester fra Anthropic og Google Gemini. For utviklere forenkler den forutsigbare kostnadsstrukturen budsjetteringen for produkter som krever konsistente, lav‑latens svar, mens lærere kan eksperimentere med avanserte prompt‑teknikker uten å bekymre seg for uventet høye regninger. Prisendringen antyder også en bredere markedsstrategi. Ved å utvide brukerbasen for sin flaggskip‑modell kan OpenAI samle rikere bruksdata, finjustere sikkerhetskontroller og styrke sin posisjon mot konkurrenter som samtidig senker sine egne inngangspriser. Det nordiske AI‑økosystemet – allerede livlig med offentlige pilotprosjekter og universitets‑spin‑offs – kan oppleve en bølge av prototype‑utrullinger, fra automatisert kundeservice til sanntids‑oversettelsesverktøy tilpasset regionens flerspråklige markeder. Det som skal følges med i neste fase er om OpenAI vil innføre lagdelte grenser for token‑gjennomstrømning, legge til bedrifts‑funksjoner som dedikerte instanser, eller rulle ut et “pay‑as‑you‑go”‑tillegg for tunge brukere. Like viktig vil være responsen fra konkurrentene: en priskrig kan akselerere spredningen av kraftige LLM‑er over hele Europa, mens regulatorisk gransking av modelltilgjengelighet og databehandling kan forme hvor raskt disse tjenestene kan tas i bruk. De kommende ukene bør avdekke om GPT‑5.4‑Pro‑s beskjedne prislapp omsettes til en målbar økning i AI‑drevet innovasjon i Norden.
32

Den gangen var SKYEN den ene store greia. Nå kaller noen som meg det bare andres datamaskiner

Mastodon +6 kilder mastodon
En bølge av kommentarer på sosiale medier begynner allerede å omformulere store språkmodeller (LLM‑er) i dagligtale som minner om hvordan «skyen» ble avmystifisert for et tiår siden. Et innlegg som gikk viralt på X tirsdag, liknet dagens AI‑hype med den tidlige sky‑æraen, og bemerket at «skyen var denne ene store greia. Nå kaller noen som meg det bare andres datamaskiner». Forfatteren spurte deretter hvordan vi vil gi LLM‑ene et nytt navn når oppstyret roer seg, og foreslo det samlede begrepet «statistisk sannsynlighets‑prediktor». Observasjonen treffer en økende stemning blant teknikere og markedsførere om at den glansfulle merkevarebyggingen av AI begynner å bli slitt. Da «cloud computing» ble et buzzword tidlig på 2010‑tallet, gikk leverandørene etter hvert over til mer funksjonelle betegnelser – SaaS, IaaS, PaaS – som reflekterte den underliggende tjenestemodellen. Analytikere advarer nå om at en lignende ommerkning kan være nært forestående for generativ AI, spesielt ettersom virksomheter sliter med kostnader, pålitelighet og regulatorisk granskning. Hvorfor dette er viktig, er todelt. For det første former terminologi offentlig oppfatning og politikk; et skifte fra «AI» til et mer teknisk uttrykk kan dempe frykt‑spredning som driver frem krav om tung regulering. For det andre kan det påvirke produktposisjonering: leverandører som adopterer en beskjeden betegnelse kan vinne troverdighet hos risikovillige kunder, mens de som holder fast ved hype risikerer motreaksjoner. Trenden speiler også interne endringer i ledende forskningslabber, hvor nylige avgang av seniorpersonell i OpenAI understreker en bevegelse bort fra spekulative prosjekter mot mer pragmatiske tilbud. Det neste å holde øye med er de første konkrete adopsjonene av alternative navn i pressemeldinger, utviklerdokumentasjon og bedrifts‑veikart. Dersom store sky‑leverandører eller AI‑plattformeiere begynner å beskrive modellene sine som «sannsynlighetsmotorer» eller «prediktive teksttjenester», vil det språklige skiftet sannsynligvis bli sementert som en bransjestandard, og omforme hvordan neste generasjon av generative verktøy selges, reguleres og forstås.
29

OpenAI trekker seg fra Force Codex for å bære kostnadene

Mastodon +6 kilder mastodon
openaisora
OpenAI kunngjorde en omfattende omorganisering som vil føre til at forskningsavdelingen blir integrert i Codex‑plattformen, og at Sora‑prosjektet for videogenerering blir avviklet. Selskapet uttalte at de nå «strukturere alle innsatsområder rundt økonomisk ansvarlighet i stedet for moon‑shot‑utforskning», og at beregningsbudsjetter blir den primære portvokteren for nytt arbeid. Som følge av dette vil vitenskapsdivisjonen – som tidligere forfulgte langsiktige gjennombrudd innen multimodal AI – bli absorbert av Codex, AI‑assistenten som allerede styrer en skrivebordskursor, genererer bilder, husker brukerpreferanser og driver et stadig voksende katalog av plugins. Dette trekket markerer et tydelig skifte fra OpenAIs selvbeskrivelse som et forskningslaboratorium til en ren plattformvirksomhet. Ved å kanalisere all utvikling inn i et inntektsgenererende produkt, håper firmaet å rettferdiggjøre den massive sky‑beregningskostnaden som har vokst i takt med lanseringen av GPT‑4‑Turbo og den nylige Claude Opus 4.7‑oppdateringen fra konkurrentene. Beslutningen kommer også etter de høyt profilerte avgangene til Kevin Weil og Bill Peebles, som vi rapporterte om 18. april, samt selskapets bredere innsats for å kvitte seg med «side‑oppdrag» som ikke direkte bidrar til bunnlinjen. Hvorfor dette er viktig er todelt. For det første kan konsolideringen av forskning under Codex akselerere utrullingen av funksjoner som visker ut skillet mellom kodegenerering og generell AI, og gi OpenAI en sterkere defensiv posisjon mot Anthropics nylige fremskritt. For det andre kan fokuset på kostnadsdrevet prosjektutvelgelse bremse tempoet i grunnleggende gjennombrudd, og dermed endre konkurranselandskapet for fundamentale modeller og potensielt dempe den åpne forskningsånden som en gang definerte sektoren. Det som bør følges med på videre inkluderer tidslinjen for Soras endelige nedstengning, utrullingen av neste Codex‑oppdatering – forventet å utdype skrivebordsintegrasjonen og utvide plugin‑økosystemet – samt eventuelle regulatoriske reaksjoner på OpenAIs nye «økonomisk ansvarlighets»-rammeverk, spesielt etter selskapets støtte til Illinois' ansvarsforsikring tidligere denne måneden. Bransjen vil være ivrig etter å se om skiftet leverer bærekraftig vekst eller signaliserer et tilbaketrekning fra ambisiøs AI‑forskning.
29

OpenAI støtter Illinois‑lovforslag som beskytter AI‑selskaper mot ansvar ved massedødsfall

Mastodon +6 kilder mastodon
anthropicopenai
OpenAI har kastet sin vekt bak Illinois Senate Bill 3444, et tiltak som vil gi utviklere av banebrytende AI immunitet mot søksmål som følge av «massedødsfall»-hendelser – definert som hendelser som forårsaker 100 eller flere dødsfall eller medfører skader som overstiger en milliard dollar. Lovforslaget, som beveger seg gjennom delstatens lovgivende forsamling, søker å beskytte selskaper mot sivilt ansvar når deres modeller brukes i scenarier som utløser katastrofale skader, som for eksempel autonome våpenutplasseringer, store desinformasjonskampanjer eller feilende industrielle AI‑systemer. OpenAIs støtte markerer den første høytprofilerte støtten til forslaget; Anthropic, et annet ledende laboratorium, har offentlig motsatt seg det, og advarer om at generelle beskyttelser kan svekke ansvarlighet og etterlate ofre uten mulighet for erstatning. Tilhengerne hevder at juridisk klarhet vil oppmuntre til fortsatt investering i avansert AI, som for tiden møter et lappete nett av statlige søksmål og den truende faren for ruinøse dommer. Kritikere svarer med at skjoldet kan skape en moralsk fare, ved å la selskaper overlate ansvaret for sikkerhetstesting og risikoreduserende tiltak til regulatorer eller sluttbrukere. Lovforslaget kommer i en bølge av lovgivende aktivitet rettet mot AI, fra Pentagon‑samtaler om sikre tilpassede brikker til føderale debatter om ansvarsmekanismer. Hvis det vedtas, vil Illinois bli et prøvested for en modell med begrenset bedr
26

Ledende modeller er nå «nesten uatskillelige» fra hverandre når det gjelder ytelse, ifølge

Mastodon +6 kilder mastodon
En ny rapport fra Stanford Institute for Human‑Centered Artificial Intelligence (HAI) viser at ytelsesgapet mellom verdens ledende språkmodeller i praksis har forsvunnet. På tvers av en rekke benchmark‑oppgaver scorer OpenAIs GPT‑4‑Turbo, Anthropics Claude 3, Googles Gemini 1.5 og en rekke åpne modeller som Llama 3 og Mistral‑7B alle innen noen få prosentpoeng fra hverandre. Studien beskriver fenomenet som «nesten uatskillelighet» og påpeker at åpne modeller nå er «mer konkurransedyktige enn noen gang» og konvergerer mot samme kapabilitetsgrense. Konvergensen er viktig fordi den snur opp ned på den tradisjonelle kappløpet som har vært drevet av ren kapasitet. Når råresultatene ikke lenger skiller leverandørene, flytter konkurransepresset seg mot sekundære egenskaper: inferenskostnad, latens, fleksibilitet for fin‑tuning, sikkerhetsverktøy og økosystem‑binding. For bedrifter innebærer dette et bredere valg av løsninger og muligheten til å bytte fra en proprietær API til en åpen modell uten å gå på kompromiss med ytelsen. For bransjen vil kappløpet sannsynligvis intensiveres rundt beregningseffektivitet, prismodeller og sertifiseringer for ansvarlig AI i stedet for oppsiktsvekkende kapabilitetsoppgraderinger. Som vi rapporterte 17. april, antydet vår reproduksjon av Anthropics Mythos‑funn med offentlige modeller allerede en innsnevring av gapet; Stanford‑rapporten bekrefter at trenden nå er systemisk. De kommende månedene vil vise hvordan selskapene reagerer. Følg med på lanseringen av neste generasjons åpne modeller, prisjusteringer fra skyleverandører og nye benchmark‑pakker som HELM 2.0, som har som mål å fange kostnadseffektivitet og sikkerhetsmålinger. Reguleringsorganer forventes også å fokusere på åpenhet og justeringsstandarder, og gjøre disse kriteriene til nye konkurranse­leveranser i et marked hvor rå ytelse ikke lenger er differensieringsfaktoren.
26

Wei Ping (@_weiping) på X

Mastodon +6 kilder mastodon
deepseek
Kinesisk AI‑lab Zhipu AI har publisert en teknisk rapport om sin nyeste store språkmodell, GLM‑5, og dokumentet blir allerede hyllet som den mest imponerende analysen siden DeepSeek‑V3/R1. Rapporten, som ble fremhevet av NVIDIA‑forsker Wei Ping på X, beskriver en rekke innovasjoner innen oppmerksomhetseffektivitet – inkludert en hybrid variant av effektiv oppmerksomhet, sparsomme oppmerksomhetsmønstre og en glidende‑vindu‑mekanisme – støttet av omfattende ablasjonsstudier og ytelsesbenchmarker. Betydningen ligger i modellens evne til å levere sammenlignbar eller overlegen perplexity i forhold til samtidige modeller, samtidig som den reduserer minne‑ og beregningsbehovet med opptil 40 prosent. Slike gevinster adresserer de økende kostnadene ved trening og drift av modeller med flere milliarder parametere, et flaskehals som har bremset bredere utrulling utenfor velstående sky‑leverandører. Ved å publisere detaljerte eksperimentelle data gir GLM‑5‑teamet forskningssamfunnet reproducerbare innsikter som kan akselerere adopsjonen av sparsomme og lokalitets‑bevisste oppmerksomhetsmekanismer i LLM‑økosystemet. Wei Pings godkjenning har vekt: hans arbeid i NVIDIA fokuserer på maskinvare‑bevisst modellutforming, og hans offentlige ros signaliserer at GLM‑5‑teknikkene er kompatible med selskapets kommende H100‑kompatible programvare‑stack. Hvis funnene blir gjort tilgjengelige som åpen kildekode eller integrert i NVIDIA‑s TensorRT‑LLM, kan utviklere oppleve umiddelbare ytelsesforbedringer på eksisterende infrastruktur. Det som er verdt å følge videre, er den formelle utgivelsen av GLM‑5‑vektene, forventede benchmark‑resultater på HELM‑ og MMLU‑suite‑ene, samt eventuelle partnerskapskunngjøringer mellom Zhipu AI og maskinvareleverandører. Like viktig vil være oppfølgingsartikler som utforsker skalering av de rapporterte oppmerksomhetsvariantene til trillion‑parameter‑regimer, et steg som kan omforme konkurranselandskapet mellom kinesiske og vestlige LLM‑utviklere.
26

Tinder og Zoom tilbyr øyeskanning som «bevis på menneskelighet» for å bekjempe AI

Mastodon +6 kilder mastodon
Tinder og Zoom har kunngjort at de vil integrere øyeskanningsteknologi i sine plattformer som et «bevis på menneskelighet»-tiltak rettet mot å dempe AI‑generert etterligning og bot‑aktivitet. Funksjonen, som er planlagt for en begrenset betaversjon senere i dette kvartalet, tar en rask skanning av netthinnemønsteret gjennom enhetens kamera og sammenligner den med en sikker, lokal mal for å bekrefte at brukeren er en levende person før tilgang til videosamtaler eller profilinteraksjoner gis. Tiltaket kommer etter en bølge av deep‑fake‑ og syntetisk‑stemme‑angrep som har svekket tilliten til sanntidskommunikasjonsverktøy. Zoom, som i samarbeid med Worldcoin har testet biometri‑verifisering i en sak vi dekket 18. april, utvider nå denne tilnærmingen til et bredere forbrukermarked. Tinder, som sliter med automatiserte «swipe‑farmer» som oppblåser match‑tall, ser på øyeskanningen som en måte å beskytte ekte brukerengasjement og redusere svindelrelaterte utestengelser. Utover den umiddelbare sikkerhetsgevinsten reiser utrullingen betydelige personverns‑spørsmål. Biometriske data som netthinnemønstre klassifiseres som «sensitiv personlig informasjon» under EUs personvernforordning (GDPR) og de nordiske databeskyttelses‑rammeverkene, noe som betyr at selskapene må lagre og behandle skanningene med strenge sikkerhetstiltak. Kritikere hevder at overlevering av slike data til en kommersiell datingtjeneste og en videokonferanse‑gigant kan sette en presedens for kommersiell innhøsting av biometrisk informasjon, særlig dersom skanningene senere brukes til reklame eller selges til tredjeparter. Hva som er viktig å følge med på: Begge selskapene har lovet kun «opt‑in»-deltakelse, men regulatorer i Sverige, Norge og Finland forventes å granske samtykkemekanismer før funksjonen lanseres. Bransjeobservatører vil også holde øye med brukeradopsjonsrater og eventuell motstand på sosiale medier, noe som kan påvirke om andre plattformer – som Microsoft Teams eller Metas Horizon – tar i bruk lignende øyebaserte verifiseringer. Suksessen eller feilen med dette biometriske satsingsspillet vil forme balansen mellom AI‑drevet bekvemmelighet og personvern i det nordiske teknologimiljøet.
24

Gmail‑etikettbroen i Claude Cowork har nettopp gått i stykker

HN +6 kilder hn
claudegooglegpt-5reasoning
Claude Coworks Gmail‑etikettbro har gått offline, og etterlater tusenvis av brukere uten mulighet til å synkronisere e‑postetiketter med det AI‑drevne arbeidsområdet. Feilen dukket opp tidlig tirsdag da integrasjonen, som automatisk speiler Gmail‑etiketter som prosjekt‑tagger i Claude‑Cowork, begynte å returnere 502‑feil. Anthropic bekreftet driftsavbruddet på sin status‑side, og tilskrev det en nylig endring i Googles Gmail‑API som ødela autentiseringsflyten som broen benytter. Feilen er viktig fordi broen er en hjørnestein i Claude Coworks løfte om å gjøre vanlige innbokser til samarbeids‑kunnskapsbaser. Ved å trekke etikettdata inn i Claudes kontekstvindu, kan systemet fremheve relevante tråder, foreslå neste‑steg‑handlinger og forsyne modellen med oppdatert informasjon uten manuell kopiering og liming. Bedrifter som har bygget interne arbeidsflyter rundt denne automatiseringen, står nå overfor stopp i saksruting, forsinkede godkjenninger og et plutselig behov for å gå tilbake til manuelle prosesser. Med Googles brukerbase på 2 milliarder, får selv en nisjefeil bølger gjennom det bredere AI‑produktivitetmarkedet, og understreker hvor tett moderne arbeidsverktøy er avhengige av stabile tredjeparts‑API‑er. Anthropic har lovet

Alle datoer