Registre uma conta gratuita hoje para se tornar um membro! Uma vez conectado, você poderá participar neste site adicionando seus próprios tópicos e postagens, além de se conectar com outros membros por meio de sua própria caixa de entrada privada!
As vezes esse tipo de inocência chega a me comover.Acho muito bonitinha a fé pura no throughput do storage do PS5. Estudar um pouquinho de arquitetura de hardware já acabaria com essa fé.
Não tenho dúvida que o PS5 será um console com jogos fantásticos. A Sony merecidamente terá mais suporte dos devs. Mas, com os dados que sabemos até agora, é difícil crer que o XSX não vá dar uma surra de poder no PS5. Pode ser uma máquina desbalanceada? Ora, qualquer uma pode. Mas por enquanto não há sinal disso.
Tem demérito nenhum em mostrar uma apresentação num hardware mais potente que o consoleIsso é demérito? O próprio dev disse que o xsx está no mesmo nível da versão de pc.
Qual o demérito?1 hora de filmes maquiados rodando no PC para iludir
Caixarada estão sendo a hipocrisia em pessoa.Tem demérito nenhum em mostrar uma apresentação num hardware mais potente que o console
Alias
Qual o demérito?
A questão é que ele compara o xbox a pcs com a placa mais pica da atualidade então rodar no pc é irrelevante, ja o ps5 não passa de uma mísera rx5700 com over, prova é que o ps5 e a rx5700 tem a mesma quantidade de cu, 36.Tem demérito nenhum em mostrar uma apresentação num hardware mais potente que o console
Alias
Qual o demérito?
Agora você exagerou na besteira
O Series X tem 12 tflops, a 2080TI tem 13,5 tflops, só que nao faz sentido comparar AMD com NvidiaNão, o xbox equivale a uma rxt2080 super, o ps5 não vai chegar numa 2070 comum.
Pois é, o ps5 mesmo com 10tf fake fica no nível de uma 2070 comum.O Series X tem 12 tflops, a 2080TI tem 13,5 tflops, só que nao faz sentido comparar AMD com Nvidia
Uma placa de 7 tflops da Nvidia compete com placa de 9 tflops da AMD, essa é a realidade, o que você ta fazendo é brigar contra os fatos
Me mostra uma placa da AMD com o mesmo numero de Tflops da Nividia e que tenha o mesmo desempenho
Kkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkk
Sim sim.Aguardando o flopstation V.
1 hora de filmes maquiados rodando no PC para iludir os poneys como killzone 2 no ps3, motorstorm e muitos outros.
Muitos deles nem chegarão a ver a luz do dia como o deep down na revelação do ps4, a enganação vem a galope.
Só fugiu completamente do tema, que era o Jogo do series X rodando numa gpu bem superior a dele
Para de fake news caraSim sim.
Aí lança. Vendas absurdas e Goty.
Enquanto isso o Xbox com retro do 360.
Ahhahahahahahahabbaba
Enviado de meu SM-G930F usando o Tapatalk
Pois é, reclamam do cara mas não param de dar atenção, é tudo o que ele quer.Galera dá a maior moral pra esse pilha aí. Está na ignore há tempos, mas mesmo assim vejo a galera falando sobre e respondendo em todo tópico sobre PS. O cara deve estar se achando a estrela da outerspace, um novo tortinhas10 ou neil young.. desse jeito jamais vai parar de bostar nesse tipo de tópico.
Ignorem e pronto, será mágico como uma descarga, um momento a b*sta tá lá, depois desce girando e desaparece.
As vezes esse tipo de inocência chega a me comover.
Amigo, O Cerny disse claramente que todas as developers procuradas pela Sony focaram que queriam um SSD rápido. Não importa mais nada.
Logo, pra que diabos todas as developers do mundo mentiriam pra Ele? Todas foram compradas pela Microsoft? Isso é teoria da conspiração do mais altíssimo nível.
Acredite, se o XONEX tivesse 5 teraflops mas um SSD do nível do PS5 a geração fluiria bem melhor e a disparidade entre o PS5 e o XSX seria bem menor em favor do PS5 do que vai ser atualmente.
Não são palavras minhas, não são palavras Dele, são pedidos de toda a comunidade que produz nossos amados jogos!
Não acredite em youtubers, procure a verdade e ela vos libertará!
Abraço e nos vemos na PSN do PS5!!!
HauahauahauahhajahauhahahajjahahahhahaPara de fake news cara
Tem retro do 360 E do xbox original
Da pra jogar inumeras masterpieces
Acho até que a Mic errou a previsão por uma geração, agora vai
Visualizar anexo 121600
interessante ler seu relato com embasamentoNão sou inocente. Sei ler projetos de processadores e demais componentes quando tenho acesso. E entender o que eles têm potencial de entregar. Na década de 90 contribuí para um emulador do Motorola MC68000. Programava, em assembly, software embarcado para Z80. Vi como uma MMU podia ser revolucionária, o mesmo para DMA e a frustração entre expectativa e realidade para o MMX. Os diferentes arranjos dos primeiros processadores multicore X86, tive problemas com seus registradores fragmentados. Desconfiei dos processadores RISC quando os vi (e não estava muito errado, apesar de ter queimado a língua). Eu gosto muito mais de software básico que de alto nível.
Não estou botando banca, nem nada. Meu post da madrugada foi um pouco arrogante (insônia me deixa meio intolerante). Me incomoda muito, sim, o endeusamento de um hardware que até agora não mostrou vantagem prática sobre o resultado final quando comparado com o concorrente. É intransigência demais. E, sim, pouco conhecimento.
Os devs terem pedido maior throughput de storage é meio óbvio. Tanto XOne quanto PS4 têm uma deficiência medonha. O Switch dá uma surra neles. No final, o quanto isso é relevante para o Switch entregar melhores jogos, vistas suas demais limitações? E o storage até agora divulgado pelo XSX está longe de ser ruim.
Outra coisa que parece uma limitação óbvia do PS5: o clock variável de GPU e CPU. Não divulgaram qual estratégia de boost será usada, mas ela certamente é pior que o clock fixo do XSX. E tem gente achando que esse arranjo do PS5 será mantido em 100% porque o storage alimentará RAM, CPU e GPU continuamente nessa taxa; mesmo que que isso fosse possível (e não é), CPU e GPU não são estáveis em 100%, o clock variável deixa isso claro.
O grande desafio da engenharia de um console atual é combinar baixo custo, baixo consumo de energia, packaging e performance. Não duvido que o XSX se torne um hardware de referência para jogos com selo XBox, tendo o PC a liberdade que lhe é natural para ir - facilmente! - além.
Pra ser honesto, acho que consoles não passarão de hardwares de referência. Baratos e limitados. Ambos. Mas um tem mais força bruta que o outro, e isso importa.
Sem pilhas, mas dura 3 horas só
Enviado de meu Redmi 5 Plus usando o Tapatalk
Os devs terem pedido maior throughput de storage é meio óbvio. Tanto XOne quanto PS4 têm uma deficiência medonha. O Switch dá uma surra neles. No final, o quanto isso é relevante para o Switch entregar melhores jogos, vistas suas demais limitações? E o storage até agora divulgado pelo XSX está longe de ser ruim.
Outra coisa que parece uma limitação óbvia do PS5: o clock variável de GPU e CPU. Não divulgaram qual estratégia de boost será usada, mas ela certamente é pior que o clock fixo do XSX. E tem gente achando que esse arranjo do PS5 será mantido em 100% porque o storage alimentará RAM, CPU e GPU continuamente nessa taxa; mesmo que que isso fosse possível (e não é), CPU e GPU não são estáveis em 100%, o clock variável deixa isso claro.
Pra ser honesto, acho que consoles não passarão de hardwares de referência. Baratos e limitados. Ambos. Mas um tem mais força bruta que o outro, e isso importa.
interessante ler seu relato com embasamento
qual seria a melhor arquitetura de processador?
powerpc, risc, mips, outra?
sua crítica a respeito do hardware...todos tem gargalos
e acredito que devido o preço como vc mesmo mencionou
Sem pilhas, mas dura 3 horas só
Enviado de meu Redmi 5 Plus usando o Tapatalk
Dentro da discussão do tópico, o XSX parece que será uma máquina mais difícil de explorar. Parece. Mas nem tanto, os paradigmas que a Microsoft parece ter escolhido são bem conhecidos. O PS5 desagrada pelo clock variável. Isso é um saco de trabalhar. Uma das coisas que quero muito saber é por qual estratégia a Sony e a AMD optaram para o boost momentâneo.
Essa não entendi. O controle do xbox tambem tem
Uma pergunta séria pq eu nunca entro em tópicos sobre o Xbox (console)
Sonista entra nos tópicos sobre o novo console da MS para chorar q nem caixista faz aqui?
Enviado de meu Redmi 5 Plus usando o Tapatalk
Surra em que sentido você quer dizer?
Administração de budget de energia é algo que já existe, não é muito diferente da ideia por trás do smartshift, feito por notebooks que possuem tanto CPU quanto GPU da AMD.
CPU e GPU não funcionam 100% o tempo todo, há várias demandas diferentes e uma boa quantidade de tempo que um deles passa em idle, por exemplo. A ideia do controle por budget de energia é atrelar o clock a esta diferença de demanda, ao invés de deixar clock fixo e variar demanda, você altera o clock de ambos de acordo com o que é mais necessário para determinada tarefa. Não vejo isso como uma questão de gerar instabilidade, porque a diferença de demanda já existe e é conhecida (ou seja, é algo determinístico), seria diferente se fosse baseada em temperatura que é algo que não dá para prever, onde você poderia ter uma certa demanda que não poderia ser atendida porque está jogando no Brasil e não na Europa e o dia está mais quente.
Agora, é claro que uma GPU mais parruda vai entregar mais resultado, independente se tenha clock fixo ou use estratégias como a smartshift, só que obviamente ela é mais cara. Estratégias como a smartshift são voltadas ao custo/benefício, elas existem para extrair mais desempenho de placas mais modestas e não para criar placas mágicas.
Não necessariamente, o que importa é equilíbrio, PS3 tinha força bruta, sua CPU era largamente superior, mas a arquitetura tinha gargalos em outros locais que impediram seu uso por grande parte da indústria.
Além disso, o próprio PS5 tem força bruta em OUTRO aspecto. Qualquer análise técnica sobre uso do SSD agora é mera futurologia, não é uma questão de falar de curriculo (seja em fóruns ou de opinião de designers) porque falamos em mudança de paradigma. Faz décadas que o gargalo gerado pela incapacidade de ler assets em tempo hábil já foi absorvida, games são produzidos para burlar estes problemas de forma quase inconsciente e o mercado já se adaptou a isso.
Ter tudo isso armazenado em um periférico com velocidade de memória RAM de alguns anos atrás muda toda esta visão. Tecnicamente é um ganho em termos de tratamento de gargalos superior a da GPU (que por sua vez acho inferior ao ganho da CPU nos consoles atuais, o salto aqui foi maior), só que ganho na GPU é de uso natural e imediato, ganho na largura de banda de mídia é algo que teremos que esperar para ver.
A distribuição do clock é feita via API e não pelo desenvolvedor, tanto que o smarthift é algo que pode ser utilizado em PC se ambas as peças forem da AMD, o que obviamente não é algo que os desenvolvedores se preparam durante a produção.
Na prática o que o desenvolvedor define é a carga de trabalho, o sistema então divide o clock para atingir esta demanda, variando a energia da GPU ou CPU de acordo com uso específico de cada uma (em um caso onde ambos funcionariam 100%, algo teórico já que nenhum sistema de arrefecimento aguentaria tal situação de stress por muito tempo, a GPU rodaria em seu clock mínimo, ela não pode ganhar carga se o processador usar toda sua carga).
Na prática você tem uma quota dinamica unificada de performance, o clock e desempenho de cada componente variam para atender o que se pede a cada momento. Em testes com smartshift, isso gerou um ganho de 10% no desempenho de alguns games como Division 2, isso em relação ao funcionamento da placa em clock fixo.
Mas muito interessante esse seu exemplo do Division 2. Mas quero ver as variáveis envolvidas nessa abordagem, por que o clock fixo trouxe resultado pior. Lembra o porquê?
Para mim são ótimos, acho eles bem melhores ao do PS4, este me decepcionou um pouco.São tão bons assim? Só joguei Infamous no PS4.
Tive 360 na geração passada.
Comprei um PS3 usado no começo do ano e achei o Infamous 1+2 baratinho.
Quando se fala de budget de potência, não pense só em bateria, mas desempenho e temperatura.
Em uma arquitetura clássica (especialmente em PC onde os fabricantes são diferentes), cada peça tem seu budget de potência, então se o GPU está a todo vapor, toda esta quota é usada, mas se o GPU está com pouca carga ou em Idle enquanto a CPU manda ver nos cálculos este budget é simplesmente desperdiçado.
No caso do Smartshift é diferente, este budget é unificado para ambas as peças, você tem uma quota que é a soma do que os dois poderiam fazer operando isoladamente. O smartshift (a nível de hardware, o desenvolvedor não tem que fazer qualquer tipo de prgramação neste sentido, tanto que ele funciona em qualquer aplicação sem precisar de patch) cuida de alocar esta carga de acordo com o uso. Então se a CPU está em pouco uso, a GPU pode aumentar seu clock e desempenho utilizando a potência que a CPU não precisa.
Na prática o que você tem é uma otimização do uso de recursos visando aumento de performance. Por isso você ganha 10% em Division 2, é algo comparado as mesmas unidades rodando de forma independente como normalmente acontece.
Por isso que falo que falar de instabilidade não faz tanto sentido. Isso só rolaria se houvesse erro de projeto (algum bug faz tirar potência da GPU ou CPU quando não poderia), o que pode acontecer é não ser eficiente, este ganho ser irrisório ou irrelevante. É esperar para ver, mas a lógica do procedimento é bem sólida, assim como o DSSL da nVidia, o Samrthift parece uma estratégia interessante de ganhar performance sem pelo aumento bruto da força.