Terminei Tears of the kingdom em uma gtx 970. Por volta de 2h de gameplay, sempre rolava o mesmo crash relacionado a falta de VRAM, conforme o Log. Ok que foi na semana prévia ao lançamento, que eu usava o mod 30fps e ainda transmitia em live, mas é chato demais jogo travando de forma continua, ainda mais um com longos períodos de exploração. Não vi outros com GPUs melhores reclamarem do mesmo erro. O mesmo ocorreu com Astral Chain.
Mas porra, me ajuda aí também...put* quantidade de caso limítrofe. O bug era você, basicamente.
970 tem a treta dos 3.5GB, os drivers da Maxwell estavam com problema na época - tanto que se recomendava usar um driver antigo - e o emulador tinha leak de memória nesse jogo naquela época.
Astral Chain tem outro problema, que não é de vram, mas usar compressão ASTC pro qual Nvidia não tem descompressão por hardware, trava pra c***lh0 mesmo. Hoje dá pra usar BC3, que já alivia ou resolve.
Edit:
Aliás, umas notas adicionais e absolutamente imprestáveis sobre o ASTC que eu fui lembrando porque juntei no tempo e vou despejar pra depois esquecer.
ASTC foi um negócio desenvolvido pra hardware móvel e quem projetou foi a ARM em conjunto com a AMD. A AMD, na época ATI, passou anos criando tecnologia pra GPUs móveis, na época das velhas GPUs Imageon, que ela tentou vender sozinha, depois licenciou aqui e ali e por fim resolveu largar essa porra pra lá e vendeu a divisão pra Qualcomm.
A Adreno 200 foi na prática desenvolvida em conjunto por Qualcomm e AMD, provavelmente porque a Qualcomm não sabia direito o que tava fazendo e não dominava as tecnologias ainda. Aquela Adreno é uma GPU do Xbox 360 capada. Essa construção é, inclusive, um dos motivos pelo qual as Adreno sempre suportaram DirectX, e não, não é em similaridade de recursos, é a API full mesmo. Creio que esse também seja um dos motivos pra Windows on ARM funcionar bem em Qualcomm hoje em dia.
Mas por fim, com poder computacional você não precisa da função fixa, faz por software. Então, a AMD e a Nvidia usam descompressão por software pra ASTC há anos, porque funciona suficientemente bem pro uso dedicado nos jogos de PC. Mas como o recurso pode ser bastante pesado, em hardware móvel é mais negócio, por temperatura, consumo e baixa potência, usar hardware de função fixa. É como o RT hoje em dia: dá pra fazer por compute shader? Dá, mas é pesado pra c***lh0, então você usa hardware dedicado. Faz mais rápido, não perde tempo de render com esses cálculos todos e economiza energia.
O X1, que é hardware mobile, manteve a unidade e suporta por hardware. Muitos jogos do
Switch usam ASTC, Mario Odyssey usa, Luigi's Mansion usa - coincidentemente, jogos dos mais bonitos do console.
Alguns idiotas usam o recurso de forma quase irresponsável. A Platinum adora essas merdas. Astral Chain é um jogo em que, por algum motivo imbecil qualquer, a Platinum resolveu usar pra c***lh0 ASTC numa escala absolutamente imbecil - o normal é que a resolução das texturas seja
4096x4096. Não é aqui e ali, são quase todas nessa resolução. E...isso pra exibir tudo em 900p depois. Depois eles pesaram a mão no Bayonetta 3 também.
Não sei se os mais novos lembram, mas a base das GPUs integradas da Intel foi por anos desenvolvida pela Imagination, era PowerVR customizado. Depois a Intel licenciou o design e começou a fazer sozinha, mas pela raiz mobile foi mantida no design a unidade de hardware de função fixa pra descompressão de ASTC. Ficou lá até outro dia. Não sei se deixaram, se esqueceram, se dava mais trabalho tirar do que deixar lá...enfim...
E o que isso implica?
O Switch e o vídeo integrado Intel Xe-LP são mais rápidos pra descomprimir texturas ASTC do que uma RTX 4090. Não são palavras minhas - são palavras do time do Yuzu. O Xe-LP é mais rápido pra isso mesmo preso num contexto de emulação.
Mas a Intel passou pra software também nas GPUs ARC - por ter poder computacional suficiente pra meter em shader. No Xe-LP acabou ficando porque ele é um Intel Ice Lake com algumas partes de ARC. No Xe-HP integrado, que é aí já tem design full ARC A, tiraram.
O que é uma pena, porque os devs possivelmente adorariam ter isso como função fixa pra usar texturas de qualidade maior e melhor compactadas nos jogos de PC...soluções de software, ainda que funcionem, têm as suas limitações.
E é shader, os putos não vão gastar tempo de processamento com isso e seu armazenamento que se foda.
Sabe esses jogos de 150GB com um monte de textura m**** que estamos vendo aí? Pois é.
Astral Chain com texturas 4096x4096? 10GB.
O filesize de Bayonetta 3? 15GB.
Luigi's Mansion? 6.3GB.
Mario Odyssey? 5.7GB.
Fica o desabafo.