Pegando o exemplo do
spider-man, eles dividem o mundo em tiles. Quando vc está se movendo pelo mapa, somente 3 tiles tem o streaming sendo feito do HD pra RAM (os outros não são necessários pq o jogador não está olhando para eles).
Então cada tile ficou em 20MB, que seria lighting, models, texture e zone (o que inclui geometria, terreno, personagens, shaders, texturas, etc).
A cada 128 metros viajados (o que leva 0.8 segundos se não me engano) vc carrega 3 novos tiles (ou se o jogador se virar e mudar a trajetória, o que dá tempo para carregar os tiles de qualquer forma).
Esses 60MB (mais áudio e outras coisas) estão sendo carregados do HD pra RAM. O game não carrega absolutamente tudo na memória e deixa o HD lá parado. O game está constantemente fazendo o streaming do HD pra RAM. Antes de cada frame a CPU (1 núcleo dela) leva de 3ms a 5ms para fazer o streaming dos dados necessários, e então os outros processos tomam conta desse núcleo da CPU e vão sendo executados em milisegundos (até o próximo frame, onde a CPU fará mais streaming, e assim por diante).
Muito do que dita qual será a qualidade geral de cada tile é a velocidade que eles conseguem, garantidamente, puxar esses dados do HD pra RAM. 20MB por tile (3 tiles por vez) e é isso.
E isso pq rola um monte de shenanigans pra fazer o negócio funcionar.
Enfim, eu realmente aconselho a assistir a palestra de alguém que realmente manja do assunto. Se mesmo após assistir vc ainda discordar do que está sendo dito, então me fale o pq, pois talvez eu é que esteja entendendo tudo errado. Afinal, assim como vc, eu também não sou nenhum profundo conhecedor de computação e hardware (e, especialmente, sobre criação de games).
Já tá marcado no tempo correto.