O que há de Novo?
Fórum Outer Space - O maior fórum de games do Brasil

Registre uma conta gratuita hoje para se tornar um membro! Uma vez conectado, você poderá participar neste site adicionando seus próprios tópicos e postagens, além de se conectar com outros membros por meio de sua própria caixa de entrada privada!

  • Anunciando os planos GOLD no Fórum Outer Space
    Visitante, agora você pode ajudar o Fórum Outer Space e receber alguns recursos exclusivos, incluindo navegação sem anúncios e dois temas exclusivos. Veja os detalhes aqui.


UPDATE: O MONSTRÃO VOLTOU PRA JAULA [+SAD] [+CALIFORNIA]

Toguro Games

Mil pontos, LOL!
Mensagens
10.307
Reações
29.911
Pontos
1.049
Acho muito bonitinha a fé pura no throughput do storage do PS5. Estudar um pouquinho de arquitetura de hardware já acabaria com essa fé.

Não tenho dúvida que o PS5 será um console com jogos fantásticos. A Sony merecidamente terá mais suporte dos devs. Mas, com os dados que sabemos até agora, é difícil crer que o XSX não vá dar uma surra de poder no PS5. Pode ser uma máquina desbalanceada? Ora, qualquer uma pode. Mas por enquanto não há sinal disso.
As vezes esse tipo de inocência chega a me comover.

Amigo, O Cerny disse claramente que todas as developers procuradas pela Sony focaram que queriam um SSD rápido. Não importa mais nada.

Logo, pra que diabos todas as developers do mundo mentiriam pra Ele? Todas foram compradas pela Microsoft? Isso é teoria da conspiração do mais altíssimo nível.

Acredite, se o XONEX tivesse 5 teraflops mas um SSD do nível do PS5 a geração fluiria bem melhor e a disparidade entre o PS5 e o XSX seria bem menor em favor do PS5 do que vai ser atualmente.

Não são palavras minhas, não são palavras Dele, são pedidos de toda a comunidade que produz nossos amados jogos!

Não acredite em youtubers, procure a verdade e ela vos libertará!

Abraço e nos vemos na PSN do PS5!!!
 


Duralino

Supra-sumo
Mensagens
1.655
Reações
1.984
Pontos
178
Tem demérito nenhum em mostrar uma apresentação num hardware mais potente que o console :klol

Alias



Qual o demérito? :klol
A questão é que ele compara o xbox a pcs com a placa mais pica da atualidade então rodar no pc é irrelevante, ja o ps5 não passa de uma mísera rx5700 com over, prova é que o ps5 e a rx5700 tem a mesma quantidade de cu, 36.
 
D

Deleted member 219486

Se a Sony dividir o evento em duas partes relevantes vai ser um acerto, se tiver apenas essa desse mês também. O que não pode acontecer é de mostrarem o console e uns games fracos.
Microsoft fez cagada justamente nesse sentido, deixoh esfriar e depois jogou uma pá de cal encima com o inside, ser em julho o evento gerou desânimo.
 

lucas789

Lenda da internet
Mensagens
30.027
Reações
78.324
Pontos
1.704
A questão é que ele compara o xbox a pcs com a placa mais pica da atualidade então rodar no pc é irrelevante, ja o ps5 não passa de uma mísera rx5700 com over, prova é que o ps5 e a rx5700 tem a mesma quantidade de cu, 36.
Agora você exagerou na besteira

Uma RTX 2080TI é muito mais forte que a GPU do Series X

Alias, a diferença da GPU do Series X pra RTX 2080TI é maior do que a do Series X pro PS5
 

Duralino

Supra-sumo
Mensagens
1.655
Reações
1.984
Pontos
178
Agora você exagerou na besteira

Uma RTX 2080TI é muito mais forte que a GPU do Series X

Alias, a diferença da GPU do Series X pra RTX 2080TI é maior do que a do Series X pro PS5
Não, o xbox equivale a uma rxt2080 super, o ps5 não vai chegar numa 2070 comum.
 

lucas789

Lenda da internet
Mensagens
30.027
Reações
78.324
Pontos
1.704
Não, o xbox equivale a uma rxt2080 super, o ps5 não vai chegar numa 2070 comum.
O Series X tem 12 tflops, a 2080TI tem 13,5 tflops, só que nao faz sentido comparar AMD com Nvidia

Uma placa de 7 tflops da Nvidia compete com placa de 9 tflops da AMD, essa é a realidade, o que você ta fazendo é brigar contra os fatos

Me mostra uma placa da AMD com o mesmo numero de Tflops da Nividia e que tenha o mesmo desempenho
 

Duralino

Supra-sumo
Mensagens
1.655
Reações
1.984
Pontos
178
O Series X tem 12 tflops, a 2080TI tem 13,5 tflops, só que nao faz sentido comparar AMD com Nvidia

Uma placa de 7 tflops da Nvidia compete com placa de 9 tflops da AMD, essa é a realidade, o que você ta fazendo é brigar contra os fatos

Me mostra uma placa da AMD com o mesmo numero de Tflops da Nividia e que tenha o mesmo desempenho
Pois é, o ps5 mesmo com 10tf fake fica no nível de uma 2070 comum.

O xsx com 12 fica na pior das hipóteses no nível de um 2080 que tem 10, da 2080 pra 2070 ainda tem a 2070 super no meio. A diferença entre os dois consoles será grande e veremos isso.
 
Mensagens
3.691
Reações
3.994
Pontos
349
Pois é, o ps5 mesmo com 10tf fake fica no nível de uma 2070 comum.

O xsx com 12 fica na pior das hipóteses no nível de um 2080 que tem 10, da 2080 pra 2070 ainda tem a 2070 super no meio. A diferença entre os dois consoles será grande e veremos isso.
Kkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkk

Quem devo confiar?

Em insiders da indústria ou num Zé fedido qualquer que tá esperneando contra todas as informações reportadas
 

Lord Atma

Mil pontos, LOL!
Mensagens
7.814
Reações
8.026
Pontos
1.094
Aguardando o flopstation V.

1 hora de filmes maquiados rodando no PC para iludir os poneys como killzone 2 no ps3, motorstorm e muitos outros.

Muitos deles nem chegarão a ver a luz do dia como o deep down na revelação do ps4, a enganação vem a galope.
Sim sim.

Aí lança. Vendas absurdas e Goty.

Enquanto isso o Xbox com retro do 360.

Ahhahahahahahahabbaba

Enviado de meu SM-G930F usando o Tapatalk
 

lucas789

Lenda da internet
Mensagens
30.027
Reações
78.324
Pontos
1.704
Pois é, o ps5 mesmo com 10tf fake fica no nível de uma 2070 comum.

O xsx com 12 fica na pior das hipóteses no nível de um 2080 que tem 10, da 2080 pra 2070 ainda tem a 2070 super no meio. A diferença entre os dois consoles será grande e veremos isso.
Só fugiu completamente do tema, que era o Jogo do series X rodando numa gpu bem superior a dele
 

lucas789

Lenda da internet
Mensagens
30.027
Reações
78.324
Pontos
1.704
Sim sim.

Aí lança. Vendas absurdas e Goty.

Enquanto isso o Xbox com retro do 360.

Ahhahahahahahahabbaba

Enviado de meu SM-G930F usando o Tapatalk
Para de fake news cara

Tem retro do 360 E do xbox original

Da pra jogar inumeras masterpieces

Acho até que a Mic errou a previsão por uma geração, agora vai

121600
 

Azeon

Mil pontos, LOL!
Mensagens
26.219
Reações
49.839
Pontos
1.304
Galera dá a maior moral pra esse pilha aí. Está na ignore há tempos, mas mesmo assim vejo a galera falando sobre e respondendo em todo tópico sobre PS. O cara deve estar se achando a estrela da outerspace, um novo tortinhas10 ou neil young.. desse jeito jamais vai parar de bostar nesse tipo de tópico.

Ignorem e pronto, será mágico como uma descarga, um momento a b*sta tá lá, depois desce girando e desaparece.
Pois é, reclamam do cara mas não param de dar atenção, é tudo o que ele quer.

Sent from my MI 9 using Tapatalk
 

javagod

Mil pontos, LOL!
GOLD
Mensagens
7.573
Reações
13.067
Pontos
1.189
As vezes esse tipo de inocência chega a me comover.

Amigo, O Cerny disse claramente que todas as developers procuradas pela Sony focaram que queriam um SSD rápido. Não importa mais nada.

Logo, pra que diabos todas as developers do mundo mentiriam pra Ele? Todas foram compradas pela Microsoft? Isso é teoria da conspiração do mais altíssimo nível.

Acredite, se o XONEX tivesse 5 teraflops mas um SSD do nível do PS5 a geração fluiria bem melhor e a disparidade entre o PS5 e o XSX seria bem menor em favor do PS5 do que vai ser atualmente.

Não são palavras minhas, não são palavras Dele, são pedidos de toda a comunidade que produz nossos amados jogos!

Não acredite em youtubers, procure a verdade e ela vos libertará!

Abraço e nos vemos na PSN do PS5!!!

Não sou inocente. Sei ler projetos de processadores e demais componentes quando tenho acesso. E entender o que eles têm potencial de entregar. Na década de 90 contribuí para um emulador do Motorola MC68000. Programava, em assembly, software embarcado para Z80. Vi como uma MMU podia ser revolucionária, o mesmo para DMA e a frustração entre expectativa e realidade para o MMX. Os diferentes arranjos dos primeiros processadores multicore X86, tive problemas com seus registradores fragmentados. Desconfiei dos processadores RISC quando os vi (e não estava muito errado, apesar de ter queimado a língua). Eu gosto muito mais de software básico que de alto nível.

Não estou botando banca, nem nada. Meu post da madrugada foi um pouco arrogante (insônia me deixa meio intolerante). Me incomoda muito, sim, o endeusamento de um hardware que até agora não mostrou vantagem prática sobre o resultado final quando comparado com o concorrente. É intransigência demais. E, sim, pouco conhecimento.

Os devs terem pedido maior throughput de storage é meio óbvio. Tanto XOne quanto PS4 têm uma deficiência medonha. O Switch dá uma surra neles. No final, o quanto isso é relevante para o Switch entregar melhores jogos, vistas suas demais limitações? E o storage até agora divulgado pelo XSX está longe de ser ruim.

Outra coisa que parece uma limitação óbvia do PS5: o clock variável de GPU e CPU. Não divulgaram qual estratégia de boost será usada, mas ela certamente é pior que o clock fixo do XSX. E tem gente achando que esse arranjo do PS5 será mantido em 100% porque o storage alimentará RAM, CPU e GPU continuamente nessa taxa; mesmo que que isso fosse possível (e não é), CPU e GPU não são estáveis em 100%, o clock variável deixa isso claro.

O grande desafio da engenharia de um console atual é combinar baixo custo, baixo consumo de energia, packaging e performance. Não duvido que o XSX se torne um hardware de referência para jogos com selo XBox, tendo o PC a liberdade que lhe é natural para ir - facilmente! - além.

Pra ser honesto, acho que consoles não passarão de hardwares de referência. Baratos e limitados. Ambos. Mas um tem mais força bruta que o outro, e isso importa.
 

joao perreira

Bam-bam-bam
Mensagens
4.227
Reações
4.130
Pontos
453
Não sou inocente. Sei ler projetos de processadores e demais componentes quando tenho acesso. E entender o que eles têm potencial de entregar. Na década de 90 contribuí para um emulador do Motorola MC68000. Programava, em assembly, software embarcado para Z80. Vi como uma MMU podia ser revolucionária, o mesmo para DMA e a frustração entre expectativa e realidade para o MMX. Os diferentes arranjos dos primeiros processadores multicore X86, tive problemas com seus registradores fragmentados. Desconfiei dos processadores RISC quando os vi (e não estava muito errado, apesar de ter queimado a língua). Eu gosto muito mais de software básico que de alto nível.

Não estou botando banca, nem nada. Meu post da madrugada foi um pouco arrogante (insônia me deixa meio intolerante). Me incomoda muito, sim, o endeusamento de um hardware que até agora não mostrou vantagem prática sobre o resultado final quando comparado com o concorrente. É intransigência demais. E, sim, pouco conhecimento.

Os devs terem pedido maior throughput de storage é meio óbvio. Tanto XOne quanto PS4 têm uma deficiência medonha. O Switch dá uma surra neles. No final, o quanto isso é relevante para o Switch entregar melhores jogos, vistas suas demais limitações? E o storage até agora divulgado pelo XSX está longe de ser ruim.

Outra coisa que parece uma limitação óbvia do PS5: o clock variável de GPU e CPU. Não divulgaram qual estratégia de boost será usada, mas ela certamente é pior que o clock fixo do XSX. E tem gente achando que esse arranjo do PS5 será mantido em 100% porque o storage alimentará RAM, CPU e GPU continuamente nessa taxa; mesmo que que isso fosse possível (e não é), CPU e GPU não são estáveis em 100%, o clock variável deixa isso claro.

O grande desafio da engenharia de um console atual é combinar baixo custo, baixo consumo de energia, packaging e performance. Não duvido que o XSX se torne um hardware de referência para jogos com selo XBox, tendo o PC a liberdade que lhe é natural para ir - facilmente! - além.

Pra ser honesto, acho que consoles não passarão de hardwares de referência. Baratos e limitados. Ambos. Mas um tem mais força bruta que o outro, e isso importa.
interessante ler seu relato com embasamento
qual seria a melhor arquitetura de processador?
powerpc, risc, mips, outra?
sua crítica a respeito do hardware...todos tem gargalos
e acredito que devido o preço como vc mesmo mencionou
 

renbh

Mil pontos, LOL!
VIP
GOLD
Mensagens
21.375
Reações
19.960
Pontos
1.434
Os devs terem pedido maior throughput de storage é meio óbvio. Tanto XOne quanto PS4 têm uma deficiência medonha. O Switch dá uma surra neles. No final, o quanto isso é relevante para o Switch entregar melhores jogos, vistas suas demais limitações? E o storage até agora divulgado pelo XSX está longe de ser ruim.

Surra em que sentido você quer dizer?

Outra coisa que parece uma limitação óbvia do PS5: o clock variável de GPU e CPU. Não divulgaram qual estratégia de boost será usada, mas ela certamente é pior que o clock fixo do XSX. E tem gente achando que esse arranjo do PS5 será mantido em 100% porque o storage alimentará RAM, CPU e GPU continuamente nessa taxa; mesmo que que isso fosse possível (e não é), CPU e GPU não são estáveis em 100%, o clock variável deixa isso claro.

Administração de budget de energia é algo que já existe, não é muito diferente da ideia por trás do smartshift, feito por notebooks que possuem tanto CPU quanto GPU da AMD.

CPU e GPU não funcionam 100% o tempo todo, há várias demandas diferentes e uma boa quantidade de tempo que um deles passa em idle, por exemplo. A ideia do controle por budget de energia é atrelar o clock a esta diferença de demanda, ao invés de deixar clock fixo e variar demanda, você altera o clock de ambos de acordo com o que é mais necessário para determinada tarefa. Não vejo isso como uma questão de gerar instabilidade, porque a diferença de demanda já existe e é conhecida (ou seja, é algo determinístico), seria diferente se fosse baseada em temperatura que é algo que não dá para prever, onde você poderia ter uma certa demanda que não poderia ser atendida porque está jogando no Brasil e não na Europa e o dia está mais quente.

Agora, é claro que uma GPU mais parruda vai entregar mais resultado, independente se tenha clock fixo ou use estratégias como a smartshift, só que obviamente ela é mais cara. Estratégias como a smartshift são voltadas ao custo/benefício, elas existem para extrair mais desempenho de placas mais modestas e não para criar placas mágicas.

Pra ser honesto, acho que consoles não passarão de hardwares de referência. Baratos e limitados. Ambos. Mas um tem mais força bruta que o outro, e isso importa.

Não necessariamente, o que importa é equilíbrio, PS3 tinha força bruta, sua CPU era largamente superior, mas a arquitetura tinha gargalos em outros locais que impediram seu uso por grande parte da indústria.

Além disso, o próprio PS5 tem força bruta em OUTRO aspecto. Qualquer análise técnica sobre uso do SSD agora é mera futurologia, não é uma questão de falar de curriculo (seja em fóruns ou de opinião de designers) porque falamos em mudança de paradigma. Faz décadas que o gargalo gerado pela incapacidade de ler assets em tempo hábil já foi absorvida, games são produzidos para burlar estes problemas de forma quase inconsciente e o mercado já se adaptou a isso.

Ter tudo isso armazenado em um periférico com velocidade de memória RAM de alguns anos atrás muda toda esta visão. Tecnicamente é um ganho em termos de tratamento de gargalos superior a da GPU (que por sua vez acho inferior ao ganho da CPU nos consoles atuais, o salto aqui foi maior), só que ganho na GPU é de uso natural e imediato, ganho na largura de banda de mídia é algo que teremos que esperar para ver.
 

javagod

Mil pontos, LOL!
GOLD
Mensagens
7.573
Reações
13.067
Pontos
1.189
interessante ler seu relato com embasamento
qual seria a melhor arquitetura de processador?
powerpc, risc, mips, outra?
sua crítica a respeito do hardware...todos tem gargalos
e acredito que devido o preço como vc mesmo mencionou

Não existe resposta. Existem escolhas que cada fabricante faz, para cada destinação. RISC é um conceito e todos os processadores mainstream modernos o utilizam. Os fabricantes e seus engenheiros conhecem muito melhor que a gente esses conceitos e aplicações. E mesmo assim tomam rasteira.

Por exemplo, o Cell, na primeira release alfa, teve seu clock limitado a 2 GHz porque uma divisão da IBM errou no gerenciamento de energia em um dos núcleos. Nesse caso, as cruéis leis da física foram as vilãs. O Cell é uma lindeza teórica. Tem capacidades muito legais, como o barramento circular entre os SPEs, para usá-los como registradores (será que posso dizer assim?). É um processador que iria nascer single threaded confiando em execução de instruções fora de ordem, depois mudou para multi threaded, e você vê que os próprios engenheiros têm expectativas, raramente certezas. Não podemos dizer que foi um fracasso, mas ficou aquém dos planos da STI. Na engenharia não existe perfeição, existem boas escolhas e outras não tão boas assim.

Dentro da discussão do tópico, o XSX parece que será uma máquina mais difícil de explorar. Parece. Mas nem tanto, os paradigmas que a Microsoft parece ter escolhido são bem conhecidos. O PS5 desagrada pelo clock variável. Isso é um saco de trabalhar. Uma das coisas que quero muito saber é por qual estratégia a Sony e a AMD optaram para o boost momentâneo.
 

renbh

Mil pontos, LOL!
VIP
GOLD
Mensagens
21.375
Reações
19.960
Pontos
1.434
Dentro da discussão do tópico, o XSX parece que será uma máquina mais difícil de explorar. Parece. Mas nem tanto, os paradigmas que a Microsoft parece ter escolhido são bem conhecidos. O PS5 desagrada pelo clock variável. Isso é um saco de trabalhar. Uma das coisas que quero muito saber é por qual estratégia a Sony e a AMD optaram para o boost momentâneo.

A distribuição do clock é feita via API e não pelo desenvolvedor, tanto que o smarthift é algo que pode ser utilizado em PC se ambas as peças forem da AMD, o que obviamente não é algo que os desenvolvedores se preparam durante a produção.

Na prática o que o desenvolvedor define é a carga de trabalho, o sistema então divide o clock para atingir esta demanda, variando a energia da GPU ou CPU de acordo com uso específico de cada uma (em um caso onde ambos funcionariam 100%, algo teórico já que nenhum sistema de arrefecimento aguentaria tal situação de stress por muito tempo, a GPU rodaria em seu clock mínimo, ela não pode ganhar carga se o processador usar toda sua carga).

Na prática você tem uma quota dinamica unificada de performance, o clock e desempenho de cada componente variam para atender o que se pede a cada momento. Em testes com smartshift, isso gerou um ganho de 10% no desempenho de alguns games como Division 2, isso em relação ao funcionamento da placa em clock fixo.
 

NUIIO

Bam-bam-bam
Mensagens
373
Reações
561
Pontos
268
É agora que a Sony vai mostrar os poderes ocultos do SSD?
 

japonespreto

Mil pontos, LOL!
Mensagens
7.433
Reações
4.959
Pontos
1.334
Uma pergunta séria pq eu nunca entro em tópicos sobre o Xbox (console)

Sonista entra nos tópicos sobre o novo console da MS para chorar q nem caixista faz aqui?

Enviado de meu Redmi 5 Plus usando o Tapatalk

cara, mas pensa bem, eles deixam as coisas melhores, se eles não viessem aqui, seria tipo pegar uma mina bem gata e não poder contar pra ninguem.
 

javagod

Mil pontos, LOL!
GOLD
Mensagens
7.573
Reações
13.067
Pontos
1.189
Surra em que sentido você quer dizer?

No sentido exagerado em discussões irracionalmente saudáveis. Mas acredito que o XSX terá poder adicional notável pelos jogadores.

Administração de budget de energia é algo que já existe, não é muito diferente da ideia por trás do smartshift, feito por notebooks que possuem tanto CPU quanto GPU da AMD.

CPU e GPU não funcionam 100% o tempo todo, há várias demandas diferentes e uma boa quantidade de tempo que um deles passa em idle, por exemplo. A ideia do controle por budget de energia é atrelar o clock a esta diferença de demanda, ao invés de deixar clock fixo e variar demanda, você altera o clock de ambos de acordo com o que é mais necessário para determinada tarefa. Não vejo isso como uma questão de gerar instabilidade, porque a diferença de demanda já existe e é conhecida (ou seja, é algo determinístico), seria diferente se fosse baseada em temperatura que é algo que não dá para prever, onde você poderia ter uma certa demanda que não poderia ser atendida porque está jogando no Brasil e não na Europa e o dia está mais quente.

Não vejo uma abordagem de economia de energia como justificativa de clock variável em consoles. São máquinas cuja missão principal é processamento em tempo real. A economia de energia pode vir por outras abordagens (por exemplo, atribuir afinidade a núcleos reservados e menos capazes, como acontece com processadores ARM) apesar do clock variável ser uma das possíveis. Sendo uma máquina de alta demanda em sua função principal, a mais provável justificativa (na minha completa especulativa opinião) para a variação da capacidade de processamento é instabilidade quando em plena carga.

Agora, é claro que uma GPU mais parruda vai entregar mais resultado, independente se tenha clock fixo ou use estratégias como a smartshift, só que obviamente ela é mais cara. Estratégias como a smartshift são voltadas ao custo/benefício, elas existem para extrair mais desempenho de placas mais modestas e não para criar placas mágicas.

Concordo. E isso corrobora que a GPU do XSX parece ser mais capaz. Pelos paradigmas que elegeram pipelines múltiplos e genéricos em GPUs modernas. Algo semelhante quando vimos, antes disso, CPUs optarem por clocks mais baixos e mais threads simultâneas quando isso começou.

Não necessariamente, o que importa é equilíbrio, PS3 tinha força bruta, sua CPU era largamente superior, mas a arquitetura tinha gargalos em outros locais que impediram seu uso por grande parte da indústria.

Além disso, o próprio PS5 tem força bruta em OUTRO aspecto. Qualquer análise técnica sobre uso do SSD agora é mera futurologia, não é uma questão de falar de curriculo (seja em fóruns ou de opinião de designers) porque falamos em mudança de paradigma. Faz décadas que o gargalo gerado pela incapacidade de ler assets em tempo hábil já foi absorvida, games são produzidos para burlar estes problemas de forma quase inconsciente e o mercado já se adaptou a isso.

Ter tudo isso armazenado em um periférico com velocidade de memória RAM de alguns anos atrás muda toda esta visão. Tecnicamente é um ganho em termos de tratamento de gargalos superior a da GPU (que por sua vez acho inferior ao ganho da CPU nos consoles atuais, o salto aqui foi maior), só que ganho na GPU é de uso natural e imediato, ganho na largura de banda de mídia é algo que teremos que esperar para ver.

Bingo. Mesmo sendo algo incrível termos main storages de altíssimo throughput, o que realmente importa é o dado disponível para o processador. O mais próximo que já vi são máquinas classe enterprise que têm racks de disco absurdamente rápidos, com canais de I/O dedicados (alguns em fibra óptica) e integração dos nodos via bancos compartilhados de RAM, sem uso de protocolos padronizados e lentos. E o ganho final significativo, mesmo com esses storages absurdamente caros e rápidos, acontece quando os dados são migrados para a main RAM. Eu não tenho dúvida que o PS5 terá uma vantagem. Mas, você disse bem, quanto será essa vantagem no geral? Ele é apenas um componente do todo.

A distribuição do clock é feita via API e não pelo desenvolvedor, tanto que o smarthift é algo que pode ser utilizado em PC se ambas as peças forem da AMD, o que obviamente não é algo que os desenvolvedores se preparam durante a produção.

Na prática o que o desenvolvedor define é a carga de trabalho, o sistema então divide o clock para atingir esta demanda, variando a energia da GPU ou CPU de acordo com uso específico de cada uma (em um caso onde ambos funcionariam 100%, algo teórico já que nenhum sistema de arrefecimento aguentaria tal situação de stress por muito tempo, a GPU rodaria em seu clock mínimo, ela não pode ganhar carga se o processador usar toda sua carga).

Na prática você tem uma quota dinamica unificada de performance, o clock e desempenho de cada componente variam para atender o que se pede a cada momento. Em testes com smartshift, isso gerou um ganho de 10% no desempenho de alguns games como Division 2, isso em relação ao funcionamento da placa em clock fixo.

Sim. Mas meu foco foi no nível mais baixo, inacessível para o desenvolvedor. As APIs têm metas, elas não conseguem influenciar de forma absoluta o escalonamento dinâmico de recursos. Essa característica em sistemas de tempo real é um problema. Todo sistema, claro, sofre com extremos de falta de recursos. Mas o dinamismo da capacidade computacional, se necessária por instabilidade dos elementos envolvidos, se não atacada por acesso direto ao hardware (e os consoles modernos abstraem o hardware do desenvolvedor). Também não sabemos como a Sony escolheu escalonar os recursos dinamicamente. Isso faz diferença.

Mas muito interessante esse seu exemplo do Division 2. Mas quero ver as variáveis envolvidas nessa abordagem, por que o clock fixo trouxe resultado pior. Lembra o porquê?

Finalmente, posso estar redondamente errado. Muito pouco se sabe dos detalhes dos novos consoles. Mas pelo histórico da arquitetura de hardware que utilizam, ainda acredito que o XSX, no final, será mais capaz. Obrigado pelas informações.
 

renbh

Mil pontos, LOL!
VIP
GOLD
Mensagens
21.375
Reações
19.960
Pontos
1.434
Mas muito interessante esse seu exemplo do Division 2. Mas quero ver as variáveis envolvidas nessa abordagem, por que o clock fixo trouxe resultado pior. Lembra o porquê?

Quando se fala de budget de potência, não pense só em bateria, mas desempenho e temperatura.

Em uma arquitetura clássica (especialmente em PC onde os fabricantes são diferentes), cada peça tem seu budget de potência, então se o GPU está a todo vapor, toda esta quota é usada, mas se o GPU está com pouca carga ou em Idle enquanto a CPU manda ver nos cálculos este budget é simplesmente desperdiçado.

No caso do Smartshift é diferente, este budget é unificado para ambas as peças, você tem uma quota que é a soma do que os dois poderiam fazer operando isoladamente. O smartshift (a nível de hardware, o desenvolvedor não tem que fazer qualquer tipo de prgramação neste sentido, tanto que ele funciona em qualquer aplicação sem precisar de patch) cuida de alocar esta carga de acordo com o uso. Então se a CPU está em pouco uso, a GPU pode aumentar seu clock e desempenho utilizando a potência que a CPU não precisa.

Na prática o que você tem é uma otimização do uso de recursos visando aumento de performance. Por isso você ganha 10% em Division 2, é algo comparado as mesmas unidades rodando de forma independente como normalmente acontece.

Por isso que falo que falar de instabilidade não faz tanto sentido. Isso só rolaria se houvesse erro de projeto (algum bug faz tirar potência da GPU ou CPU quando não poderia), o que pode acontecer é não ser eficiente, este ganho ser irrisório ou irrelevante. É esperar para ver, mas a lógica do procedimento é bem sólida, assim como o DSSL da nVidia, o Samrthift parece uma estratégia interessante de ganhar performance sem pelo aumento bruto da força.
 

DATUM

Lenda da internet
VIP
Mensagens
16.075
Reações
16.297
Pontos
1.734
São tão bons assim? Só joguei Infamous no PS4.

Tive 360 na geração passada.
Comprei um PS3 usado no começo do ano e achei o Infamous 1+2 baratinho.
Para mim são ótimos, acho eles bem melhores ao do PS4, este me decepcionou um pouco.

Achei mais uma aventura adolescente, nos dois primeiros parece mais sério e sombrio o jogo.

Acho que agora se jogar eles, tu deve achar o dois melhor, porque o primeiro os gráficos não eram tão bons, primeira leva dos jogos do PS3.
 

javagod

Mil pontos, LOL!
GOLD
Mensagens
7.573
Reações
13.067
Pontos
1.189
Quando se fala de budget de potência, não pense só em bateria, mas desempenho e temperatura.

Em uma arquitetura clássica (especialmente em PC onde os fabricantes são diferentes), cada peça tem seu budget de potência, então se o GPU está a todo vapor, toda esta quota é usada, mas se o GPU está com pouca carga ou em Idle enquanto a CPU manda ver nos cálculos este budget é simplesmente desperdiçado.

No caso do Smartshift é diferente, este budget é unificado para ambas as peças, você tem uma quota que é a soma do que os dois poderiam fazer operando isoladamente. O smartshift (a nível de hardware, o desenvolvedor não tem que fazer qualquer tipo de prgramação neste sentido, tanto que ele funciona em qualquer aplicação sem precisar de patch) cuida de alocar esta carga de acordo com o uso. Então se a CPU está em pouco uso, a GPU pode aumentar seu clock e desempenho utilizando a potência que a CPU não precisa.

Na prática o que você tem é uma otimização do uso de recursos visando aumento de performance. Por isso você ganha 10% em Division 2, é algo comparado as mesmas unidades rodando de forma independente como normalmente acontece.

Por isso que falo que falar de instabilidade não faz tanto sentido. Isso só rolaria se houvesse erro de projeto (algum bug faz tirar potência da GPU ou CPU quando não poderia), o que pode acontecer é não ser eficiente, este ganho ser irrisório ou irrelevante. É esperar para ver, mas a lógica do procedimento é bem sólida, assim como o DSSL da nVidia, o Samrthift parece uma estratégia interessante de ganhar performance sem pelo aumento bruto da força.

Você tem razão. Mas limite de potência tem a ver com estabilidade. Sua reposta é aderente a esse fato. O equilíbrio entre as necessidades energéticas dos componentes envolvidos é basicamente incontornável (falando puramente em potência, não em eficiência energética) por ter que lidar com geração e dissipação de calor. Se esse ganho do The Division 2 ocorreu, e outras limitações como perda de desempenho por processamento paralelo dos assets (e isso ocorre com frequência irritante - Sega Saturn, sua maldição vive!) não foi identificada, por exemplo, os componentes de processamento encontraram um equilíbrio de performance por driblarem situações de throttling, provavelmente. Descompasso entre GPU e CPU podem causar isso (e isso pode ser um problema com o paralelismo extremo e as memórias heterogêneas no XSX). Estou cansado de ver setups entrando em thrashing porque um recurso apenas ficou escasso.

Ontem fui reler tudo que foi publicado sobre PS5 e XSX até agora, para ver se não tinha deixado passar algo. O resultado é que passei a acreditar mais no PS5 como um máquina mais balanceada e refinada, e o XSX como a pura força bruta composta por conceitos consolidados. Mas sobre a instabilidade, o próprio Mark Cerny afirmou que tem expectativa do PS5 trabalhar a maior parte do tempo em modo boost. É uma expectativa, não uma garantia. Optaram por favorecer o silêncio das ventoinhas (que, vamos admitir, são um incômodo em qualquer PS4) e acreditar que a máquina conseguirá aliviar a carga dos devs em balancear a carga de processamento por seus escalonadores nativos. O SMT estará sempre ligado no PS5, opcional no XSX. Nós sabemos que o boost momentâneo é uma extrapolação dos limites seguramente estáveis de todos os processadores produzidos em uma linha. Algum escalarão melhor, outros não. Se a MS consegue estabilizar todos de forma a garantir uma performance crua maior que o PS5, eu acho que foi uma abordagem melhor.

Em outra resposta você citou o main storage do PS5 ter performance de memórias RAM de um passado nem tão distante. Isso não é incrível? Realmente podem ser comparados às primeiras memórias DDR3. Mas o XSX terá storage com DRT comparável às DDR 2 de meio de "geração". Incrível, de fato. Eu cheguei a afirmar que a capacidade reduzida de storage do PS5 seria um problema, mas me esqueci que um dos workarounds para carga rápida de assets é a sua replicação massiva. Que, claro, ocupa espaço. Os jogos do PS5 terem como efeito colateral o tamanho reduzido também seria uma vantagem muito bem vinda. O XSX também pode ir por esse caminho, com mais limitações.

Parece que estamos vendo uma disputa entre um V8 americano e um refinado L4 turbo japonês.
 
Topo Fundo