O que há de Novo?
Fórum Outer Space - O maior fórum de games do Brasil

Registre uma conta gratuita hoje para se tornar um membro! Uma vez conectado, você poderá participar neste site adicionando seus próprios tópicos e postagens, além de se conectar com outros membros por meio de sua própria caixa de entrada privada!

  • Anunciando os planos GOLD no Fórum Outer Space
    Visitante, agora você pode ajudar o Fórum Outer Space e receber alguns recursos exclusivos, incluindo navegação sem anúncios e dois temas exclusivos. Veja os detalhes aqui.


[Tópico Oficial] AMD RADEON - Polaris / VEGA / NAVI - Benchmarks, Notícias, Fotos, Testes, Discussão.

rodrigoxm49

Bam-bam-bam
Mensagens
5.555
Reações
5.288
Pontos
403

Informações sobre o vendedor​

  • Nome Comercial: ELETRO CAF COMERCIO DE MATERIAIS ELETRICOS LTDA
  • CNPJ:10.906.818/0001-21
Tá certo, a placa é eletrica, confia

:coolface
Até ai nada demais não rs.

E o Amazon garante a entrega. Valor baixo, dá pra arriscar pra quem tiver afim de lidar com algum probleminha leve caso dê errado.

Ué, mas a Amazon não se responsabiliza se der alguma merdha?
Sim. Especialmente se tomar os cuidados de filmar a abertura da embalagem. Ai fica mais fácil ainda.
 

LucianoBraga

Operador de Marreta
Membro STAFF
Mensagens
50.282
Reações
175.740
Pontos
2.234
Há indicativo de que a GPU do Exynos 2200 é uma redução da GPU do Steam Deck, com menos SPs - 384 no Exynos, 512 no Deck - e clocks muito mais baixos - até 2400Mhz no Deck e 555Mhz no Exynos. O desempenho de GPU do 2200 não é lá essas coisas, mas é um SoC que consome fucking 5W quando o bicho pega...e isso somando a GPU e os oito cores ARM (1 Cortex-X2 + 3 A710 + 4 A510).

De certa forma, esse foco em redução de energia pra caber num SoC mobile ajuda a explicar a redução significativa - pelo menos eu considero significativa - de consumo de energia do RDNA2 mobile...e é até difícil saber se a GPU do Deck é a do Exynos bombada ou se a do Exynos é a do Deck capada. Fora as lições pro RDNA3.

Dado que parece que a Nvidia vai mandar o consumo pra casa do c***lho no Lovelace, se o RDNA3 vier num patamar ali de 70 a 90% do LL consumindo, sei lá, metade, pode ser difícil pra Nvidia.


***

Só tentando deixar umas coisas mais claras:

1. RSR é só o FSR 1 no painel de controle da AMD.
2. NÃO EXISTE MOTIVO TÉCNICO pra Polaris e Vega não aceitarem RSR. A pergunta é: "FSR roda?" Se a resposta for positiva, RSR roda.
3. FSR 2.0 é temporal, então precisa ser implementado na engine. Lossless Scaling, Magpie e Reshade, em tese, não permitiriam o uso de FSR 2 porque não tem acesso aos motion vectors pro upscaling temporal.
4. Não existe isso de "é IA, não pode ser batido por software normal", porque o que se chama de "IA" no contexto aqui é só software voltado pra mecanismos de inferência. Dá pra fazer isso com um Raspberry Pi, só vai demorar dez anos.
5. DLSS - enquanto classe de recurso - não precisa necessariamente de tensores e AI. AI é só um jeito de fazer, não o único jeito. "DLSS 1.9" rodava em Cuda Cores, só que não usava um algoritmo generalista - tinha que ser treinado jogo por jogo e não era muito prático, portanto. Por exemplo, a Intel já confirmou que o XeSS vai ser generalista, de código aberto. Tendo unidade de matriz, funciona melhor, mas não é como se SÓ FUNCIONASSE em unidade de matriz. Haverá a versão XMX - com matriz - e uma de menor performance que vai rodar em qualquer hardware que suporte DP4a. Não precisa de tensores.
 

T1mp4s

Mil pontos, LOL!
Mensagens
28.419
Reações
34.507
Pontos
1.354
Há indicativo de que a GPU do Exynos 2200 é uma redução da GPU do Steam Deck, com menos SPs - 384 no Exynos, 512 no Deck - e clocks muito mais baixos - até 2400Mhz no Deck e 555Mhz no Exynos. O desempenho de GPU do 2200 não é lá essas coisas, mas é um SoC que consome fucking 5W quando o bicho pega...e isso somando a GPU e os oito cores ARM (1 Cortex-X2 + 3 A710 + 4 A510).

De certa forma, esse foco em redução de energia pra caber num SoC mobile ajuda a explicar a redução significativa - pelo menos eu considero significativa - de consumo de energia do RDNA2 mobile...e é até difícil saber se a GPU do Deck é a do Exynos bombada ou se a do Exynos é a do Deck capada. Fora as lições pro RDNA3, que já tem esses

Dado que parece que a Nvidia vai mandar o consumo pra casa do c***lho no Lovelace, se o RDNA3 vier num patamar ali de 70 a 90% do LL consumindo, sei lá, metade, pode ser difícil pra Nvidia.


***

Só tentando deixar umas coisas mais claras:

1. RSR é só o FSR 1 no painel de controle da AMD.
2. NÃO EXISTE MOTIVO TÉCNICO pra Polaris e Vega não aceitarem RSR. A pergunta é: "FSR roda?" Se a resposta for positiva, RSR roda.
3. FSR 2.0 é temporal, então precisa ser implementado na engine. Lossless Scaling, Magpie e Reshade, em tese, não permitiriam o uso de FSR 2 porque não tem acesso aos motion vectors pro upscaling temporal.
4. Não existe isso de "é IA, não pode ser batido por software normal", porque o que se chama de "IA" no contexto aqui é só software voltado pra mecanismos de inferência. Dá pra fazer isso com um Raspberry Pi, só vai demorar dez anos.
5. DLSS não precisa necessariamente de tensores e AI. AI é só um jeito de fazer, não o único jeito. "DLSS 1.9" rodava em Cuda Cores, só que não usava um algoritmo generalista - tinha que ser treinado jogo por jogo e não era muito prático, portanto. Por exemplo, a Intel já confirmou que o XeSS vai ser generalista, de código aberto. Tendo unidade de matriz, funciona melhor, mas não é como se SÓ FUNCIONASSE em unidade de matriz. Haverá a versão XMX - com matriz - e uma de menor performance que vai rodar em qualquer hardware que suporte DP4a. Não precisa de tensores.
Pra mim tensores é tipo os consoles que tem aqueles dois nucleos que não são voltados para jogos e sim para o sistema operacional.
Tirando qualquer peso que poderia ocorrer dos outros nucleos, então executando uma tarefa separada.
A nvidia vendeu essa conversa, mas os tensores só são hardware a parte que deixa a gpu mais solta para outras tarefas e não correr o risco de perder o desempenho quando a função é utilizada.
Seria tipo uma "mula" que carrega aquilo nas costas.
E cuda core idem, mas mais complicado de utilizar para certas tarefas como vc descreveu acima.
 


LucianoBraga

Operador de Marreta
Membro STAFF
Mensagens
50.282
Reações
175.740
Pontos
2.234
Pra mim tensores é tipo os consoles que tem aqueles dois nucleos que não são voltados para jogos e sim para o sistema operacional.
Tirando qualquer peso que poderia ocorrer dos outros nucleos, então executando uma tarefa separada.
A nvidia vendeu essa conversa, mas os tensores só são hardware a parte que deixa a gpu mais solta para outras tarefas e não correr o risco de perder o desempenho quando a função é utilizada.
Seria tipo uma "mula" que carrega aquilo nas costas.
E cuda core idem, mas mais complicado de utilizar para certas tarefas como vc descreveu acima.

Tensor é hardware de função fixa. É só um processador de uso específico, um "acelerador" pra determinado tipo de função, por assim dizer. O conceito nem é novo, nem nada.
 

alefmm

Bam-bam-bam
Mensagens
1.642
Reações
1.386
Pontos
353
Testando aqui em alguns jogos mais antigos ,. a qualidade da imagem realmente é muito boa. Colocando em 1366x768p ou 1280x720p a qualidade da imagem fica ainda excelente quando sai na tela em 1080p.

Se essa qualidade for percebida na mesma proporção quando relativo a 4k, é uma ferramenta excelente para quem tem um monitor 4k e não conseguia jogar algum game sem DLSS ou FDFX em 60fps, e agora pode conseguir os frames que faltavam via driver. Uma grande pena que isso não seja suportado pelas polaris, seria de grande ajuda para uma 570/580/590 para ter uma vida um pouco mais longa.

768p
276197426_5101720416560244_257048135925092761_n.jpg



1080p
276131944_5101721196560166_921619736717945276_n.jpg
Eu não tenho cachorro mas ele me perguntou: Comofas?

Poco F3 via Cebolatalk
 

Chris Redfield jr

Lenda da internet
Mensagens
40.478
Reações
133.947
Pontos
1.779
Eh só isso?
Não precisa att driver?
Já vi essa função lá, mas sou do tempo que ativar qq coisa consome recurso e não uso hahahaha

Poco F3 via Cebolatalk
A partir desse ultimo driver tem essa opção, é só acionar e experimentar. Ela não é compativel com outras funções, como o anti-lag, o radeon chill e o radeon boost, além tbm de não poder usar com a super resolução virtual (aquela que possibilita resoluções maiores que a nativa do monitor.)
 

LucianoBraga

Operador de Marreta
Membro STAFF
Mensagens
50.282
Reações
175.740
Pontos
2.234
Na segundo vcs eu estava errado q aqui não ia ter queda. Tomem ai, eu avisei q em março a queda ia começar a cair de verdade. E vai melhorar mês a mês pq tem bem mais placas no mercado q antes.

La nos eua alguns modelos estão caindo do preço oficial das empresas!



Nvidia vem dizendo que pro segundo semestre ia melhorar desde o ano passado.
 

Yatahaze

Ei mãe, 500 pontos!
Mensagens
3.374
Reações
10.648
Pontos
703
haha, o cara cita como exemplo o caso da 6500XT, que é uma placa que ninguém quer e que visivelmente é overpriced na cara de pau

bom click bait

e sim, eu seu que aos pouquinhos tá caindo
 

Chris Redfield jr

Lenda da internet
Mensagens
40.478
Reações
133.947
Pontos
1.779

joao perreira

Bam-bam-bam
Mensagens
4.244
Reações
4.160
Pontos
453
Na segundo vcs eu estava errado q aqui não ia ter queda. Tomem ai, eu avisei q em março a queda ia começar a cair de verdade. E vai melhorar mês a mês pq tem bem mais placas no mercado q antes.

La nos eua alguns modelos estão caindo do preço oficial das empresas!


china entrou em novo lockdown
ou seja...
 

wtsds

Mil pontos, LOL!
Mensagens
20.675
Reações
20.670
Pontos
1.344
china entrou em novo lockdown
ou seja...

Os preços não vão aumentar pq a quantidade de placa no mercado agora é muito maior. Mesmo se a China parar! Tanto q la fora ninguém fala da China estar em lockdown!

Preços lá em cima e o wtsds soltando rage aqui :coolface

To de boas! Já tenho uma 3070! Espero conseguir um bom preço na 4070 e ta ótimo!
 

Krion

Ei mãe, 500 pontos!
Mensagens
16.346
Reações
63.453
Pontos
903

Leak confirms custom Radeon RX 6400 graphics card are indeed coming


Gigabyte Radeon RX 6400 EAGLE​

According to the Gigabyte’s filing to South Korean “National Radio Research Agency” (RRA), the company is planning a custom low-power RDNA2 GPUs for desktops.



On April 20th AMD is set to launch multiple Ryzen 5000/4000 processors and new Radeon RX 6000 GPUs. The launch date of the updated Radeon graphics cards has not yet been confirmed, however it is clear that AMD is preparing a large Spring 2022 product refresh.

One of the rumors mentioned alongside Radeon RX 6X50XT series, the company will also be relaunching its slowest RDNA2 GPU for the DIY market. The Radeon RX 6400 currently only available for OEMs is a Navi 24 based GPU with 768 Stream Processors. This is also the only reference low-profile model in the whole lineup and the only card that does not require external power connectors (TDP of 53W).

At this moment, it is unclear if the DIY model will feature the exact same specs as the OEM version, but the leak from the RRA at least confirms that there is a custom Gigabyte Eagle series model in the works.



Gigabyte RX 6400 EAGLE, Source: RRA



If previous reports are to be believed, AMD is now set to launch at least three new Radeon RX 6000 SKUs: 6950XT, 6750XT and 6650XT. The RX 6400 would now simply become available for DIY customers.


Gigabyte might reuse its RX 6500XT EAGLE design for RX 6400



The RX 6400 is no gaming GPU, but it might be an interesting alternative for servers without discrete graphics. Due to its limitations with video encoding capabilities, it may not be just as good solution for home theater PCs, though.


VideoCardzRX 6600 XTRX 6600RX 6500 XTRX 6400
AMD Radeon RX 6000 Series
Picture
RX6600-small-png.png
RX6600-small-png.png
AMD-RX6500XT-small.png
AMD-RX6400-small.png
Architecture7nm RDNA27nm RDNA26nm RDNA26nm RDNA2
GPUNavi 23 XTNavi 23 XLNavi 24 XTNavi 24 XL
Cores

2048


1792


1024


768
Infinity Cache

32 MB


32 MB


16 MB


16 MB
Ray Accelerators

32


28


16


12
Game Clock

2359 MHz


2044 MHz


2610 MHz


2039 MHz
Boost Clock

2589 MHz


2491 MHz


2815 MHz


2321 MHz
Memory Clock

16 Gbps


14 Gbps


16 Gbps


14 Gbps
Memory

8 GB GDDR6


8 GB GDDR6


4 GB GDDR6


4 GB GDDR6
Memory Bus

128-bit


128-bit


64-bit


64-bit
Bandwidth

256 GB/s


224 GB/s


128 GB/s


112 GB/s
TBP

160W


132W


107W


53W
MSRP

379 USD


329 USD


199 USD
TBC
Launch DateAugust 2021October 2021January 2022January 2022 (OEM)
April 2022 (DIY)
Source: RRA
 

rodrigoxm49

Bam-bam-bam
Mensagens
5.555
Reações
5.288
Pontos
403
Deve substituir a RX 550.
Isso, e acho que vai fazer bem. Deve ficar bocado superior a RX550. Melhor do que comprar 5700G pra jogar, igual muita gente infelizmente acaba caindo no erro. Mto mais jogo pegar CPU basiquinha e placa de vídeo mesmo simples.
 

LucianoBraga

Operador de Marreta
Membro STAFF
Mensagens
50.282
Reações
175.740
Pontos
2.234
Porra, hoje é dia 23, GDC tá rolando e eu nem lembrei. AMD falou mais sobre o FSR 2, falou que vai estar no SDK do Xbox Series - S e X - e em PC falou sobre "requisitos".

fsr_hardware.jpg


A questão toda é que , como "quase não acontece em requisitos de PC", esses requisitos não fazem muito sentido. Em 1080p ali, consta "16 Series", que engloba 1650 e 1650 Super - e a 1070.
Questão toda é que a 1070 é o dobro da potência da 1650 - acho que vai dar pra fazer com bem menos, portanto...fora que ainda tem o Deck aí.

Eu achei o custo computacional bem baixo:

fsr_performance_mode_timing.jpg


Tem efeito de Reshade que custa mais ms.

Mas é esperar pra ver se entregam.

Primeiros jogos serão Deathloop e Forspoken.
 

LucianoBraga

Operador de Marreta
Membro STAFF
Mensagens
50.282
Reações
175.740
Pontos
2.234
 

wtsds

Mil pontos, LOL!
Mensagens
20.675
Reações
20.670
Pontos
1.344
Porra, hoje é dia 23, GDC tá rolando e eu nem lembrei. AMD falou mais sobre o FSR 2, falou que vai estar no SDK do Xbox Series - S e X - e em PC falou sobre "requisitos".

fsr_hardware.jpg


A questão toda é que , como "quase não acontece em requisitos de PC", esses requisitos não fazem muito sentido. Em 1080p ali, consta "16 Series", que engloba 1650 e 1650 Super - e a 1070.
Questão toda é que a 1070 é o dobro da potência da 1650 - acho que vai dar pra fazer com bem menos, portanto...fora que ainda tem o Deck aí.

Eu achei o custo computacional bem baixo:

fsr_performance_mode_timing.jpg


Tem efeito de Reshade que custa mais ms.

Mas é esperar pra ver se entregam.

Primeiros jogos serão Deathloop e Forspoken.

Não depende da tecnologia das gpus? Talvez a 1070 tenha força bruta mesmo sendo uma tecnologia anterior a 16. Então praticamente confirma q a série 900 da Nvidia poderá não suportar. Ficar dando suporte eterno pra placas de 7 8 anos atrás não da bicho. Sinceramente. Eu acho q 5 anos um tempo ideal pro cara mudar de gpu.
 

T1mp4s

Mil pontos, LOL!
Mensagens
28.419
Reações
34.507
Pontos
1.354
Não depende da tecnologia das gpus? Talvez a 1070 tenha força bruta mesmo sendo uma tecnologia anterior a 16. Então praticamente confirma q a série 900 da Nvidia poderá não suportar. Ficar dando suporte eterno pra placas de 7 8 anos atrás não da bicho. Sinceramente. Eu acho q 5 anos um tempo ideal pro cara mudar de gpu.
Já discordo, consoles duram ai 8 anos ou mais com suporte, o mesmo deveria ocorrer com gpu.
 

LucianoBraga

Operador de Marreta
Membro STAFF
Mensagens
50.282
Reações
175.740
Pontos
2.234
Não depende da tecnologia das gpus? Talvez a 1070 tenha força bruta mesmo sendo uma tecnologia anterior a 16. Então praticamente confirma q a série 900 da Nvidia poderá não suportar. Ficar dando suporte eterno pra placas de 7 8 anos atrás não da bicho. Sinceramente. Eu acho q 5 anos um tempo ideal pro cara mudar de gpu.

Não. No próprio artigo da AMD tá escrito que pode funcionar com GPUs mais antigas e/ou de outras marcas, mas que eles não vão dar suporte.
De qualquer forma, é só implementar na engine. Não tem muito o que "dar suporte". Funciona? Ótimo. Não funciona? Beleza.
 

wtsds

Mil pontos, LOL!
Mensagens
20.675
Reações
20.670
Pontos
1.344
Já discordo, consoles duram ai 8 anos ou mais com suporte, o mesmo deveria ocorrer com gpu.

Consoles é outros quinhentos, e agora eles até tem versões bombadas no meio da geração. Depois q sai o mais novo até port fica pior no base.
8 anos acho demais, mesmo assim a Nvidia ainda lança drivers pra série 900 q lançou em 2015.
 

Kaiji

Mil pontos, LOL!
Mensagens
21.570
Reações
23.628
Pontos
1.154
Fala rapaziada!
Consegui pegar uma RX 6600!
Fui rodar os jogos e tava tudo travado em 60fps.
Ai, mexi naquele software da AMD, que é uma porra, e consegui destravar o fps em alguns jogos.
O Elden Ring está mais bonito que antes, na minha 1060 6GB, mas estou fazendo alguma coisa errada na configuração...
Eu deixo tudo desmarcado no software da AMD, e faço o controle pelo jogo mesmo...
O Stuttering está mais alto que na minha placa antiga. Vocês sabem se tem um perfil de configuração já compartilhado para os jogos? Me ajudem ai, porque sou noob em placa AMD... :(
 

wtsds

Mil pontos, LOL!
Mensagens
20.675
Reações
20.670
Pontos
1.344
Fala rapaziada!
Consegui pegar uma RX 6600!
Fui rodar os jogos e tava tudo travado em 60fps.
Ai, mexi naquele software da AMD, que é uma porra, e consegui destravar o fps em alguns jogos.
O Elden Ring está mais bonito que antes, na minha 1060 6GB, mas estou fazendo alguma coisa errada na configuração...
Eu deixo tudo desmarcado no software da AMD, e faço o controle pelo jogo mesmo...
O Stuttering está mais alto que na minha placa antiga. Vocês sabem se tem um perfil de configuração já compartilhado para os jogos? Me ajudem ai, porque sou noob em placa AMD... :(

Eu não sei pq as placas da AMD dão mais stutterings q as da Nvidia. Só quando o jogo é todo patrocinado pela AMD q as coisas andam. Eu fui ver um video dessa RX 6600XT do Baltar, e meu tem muito mais stutterings q na minha RTX 3070. =O
 

LucianoBraga

Operador de Marreta
Membro STAFF
Mensagens
50.282
Reações
175.740
Pontos
2.234
Fala rapaziada!
Consegui pegar uma RX 6600!
Fui rodar os jogos e tava tudo travado em 60fps.
Ai, mexi naquele software da AMD, que é uma porra, e consegui destravar o fps em alguns jogos.
O Elden Ring está mais bonito que antes, na minha 1060 6GB, mas estou fazendo alguma coisa errada na configuração...
Eu deixo tudo desmarcado no software da AMD, e faço o controle pelo jogo mesmo...
O Stuttering está mais alto que na minha placa antiga. Vocês sabem se tem um perfil de configuração já compartilhado para os jogos? Me ajudem ai, porque sou noob em placa AMD... :(

Seus shaders armazenados eram de Nvidia. Agora tá processando tudo de novo, vai dar stutter no começo mesmo.
 

Chris Redfield jr

Lenda da internet
Mensagens
40.478
Reações
133.947
Pontos
1.779
Fala rapaziada!
Consegui pegar uma RX 6600!
Fui rodar os jogos e tava tudo travado em 60fps.
Ai, mexi naquele software da AMD, que é uma porra, e consegui destravar o fps em alguns jogos.
O Elden Ring está mais bonito que antes, na minha 1060 6GB, mas estou fazendo alguma coisa errada na configuração...
Eu deixo tudo desmarcado no software da AMD, e faço o controle pelo jogo mesmo...
O Stuttering está mais alto que na minha placa antiga. Vocês sabem se tem um perfil de configuração já compartilhado para os jogos? Me ajudem ai, porque sou noob em placa AMD... :(
No driver tem um perfil dedicado ao jogo, mas só aparecerá se o jogo for original, daí é automático. Caso for versão tapa olho, daí vc tem que indicar o caminho da instalação onde fica o executável.

Feito isso, caso tenha monitor freesync, trave o jogo em 50fps. Se for original, atualmente dá pra jogar em tela cheia sem muitos stutterings. Piratinha sem atualização, acho que janela sem bordas ainda deve ser a melhor opção.

De resto é esperar carregar os shaders de novo, quando eu migrei do pirata para o original os stutters de carregamento voltaram por um tempo e logo sumiram.
 
Topo Fundo