Dette er ikke akkurat mitt felt, men så vidt jeg har forstått så bruker MacOS så mye minne som mulig, det er en del av optimeringsprosessen.
Free RAM is wasted RAM.
www.howtogeek.com
Det å cacha disk til RAM dynamisk er ganske gammalt (cacha disk-tilgang enno eldre, eg hugsar
SMARTDRV.EXE på MS-DOS) og heilt vanleg (også på Windows og Linux). Det er heilt uproblematisk, og få moderne OS har problem med å kvitta seg med denne typen minnebruk.
Men program på moderne OS ser ikkje det fysiske minnet. Tvert om, det ser «virtuelt minne», der kan tildela så mykje som programmet bed om (opp til 128TB elns), og så mappar «memory management» fysisk minne til det virtuelle minnet etter kvart som det vert brukt. Bruker du (faktisk) så mykje som du har av fysisk minne, vil maskina først komprimera minne som ikkje er i direkte bruk, så swappa ut til disk. Ikkje noko mystisk, Windows og Linux gjer også det.
Eg har sett fleire forklaringar på kvifor Tahoe bruker uvanleg mykje minne.
1. Den eine er at det er noko fishy med «memory management» mellom virtuelt og fysisk minne. Nett det har eg ikkje sett mange døme på, og det vil overraska meg om det er tilfellet.
2. Store problem med memory leaks, altså at programvare bruker minne som ikkje vert frigjeve når det lenger ikkje er bruk for det. Det var eit vanleg problem før i tida, men ikkje det eg forventar av vaksen programkode i dag. Typisk er det kritisk for prosessar som vert liggjande i bakgrunnen, og bruker meir og meir minne (når ein prosess vert avslutta, kan du jo frigje alt minnet han har brukt).
3. GPU/NPU (Liquid glass og Apple Intelligence) deler, som
@bambadoo seier, minne med CPU, og er heller ikkje flink til å sleppa minne etter bruk.
Døme som vert nemnt (i tidlege utgåver av Tahoe), er at småpjask som kalkulatoren, eller indekseringsprosessar, et opp 30-40 GB RAM, og fiksen er å omstarta ein gong i veka. Duh.