O que há de Novo?
Fórum Outer Space - O maior fórum de games do Brasil

Registre uma conta gratuita hoje para se tornar um membro! Uma vez conectado, você poderá participar neste site adicionando seus próprios tópicos e postagens, além de se conectar com outros membros por meio de sua própria caixa de entrada privada!

  • Anunciando os planos GOLD no Fórum Outer Space
    Visitante, agora você pode ajudar o Fórum Outer Space e receber alguns recursos exclusivos, incluindo navegação sem anúncios e dois temas exclusivos. Veja os detalhes aqui.


Tópico oficial Tópico oficial das placas Nvidia séries RTX! Todas as informações aqui!

wtsds

Mil pontos, LOL!
Mensagens
20.658
Reações
20.631
Pontos
1.344
Prefiro aguardar uma versão refinada no consumo e dando o mesmo salto.




E como assim assim não sou obrigado a trocar de placa? A nvidia bateu na minha porta dizendo que se eu não trocar de placa, eu serei executado VIVO!

:coolface

Se tem sempre essa opção. Se vc acha q não compensa, espere a próxima geração! O único problema é q no momento estamos rumo a aumentos de TDP em troca de ganhos expressivos. Então alguma tecnologia precisa surgir ai nos próximos 5 anos para reverter essa tendência!

Nvidia precisa justificar o porque o cara precisa trocar a série 30. Infelizmente isso vem com ganhos de TDP muito altos. Um dia fala se que a 4070 vai consumir 300w. No outro é 400w. Está uma bagunça isso dai, todo mundo atirando pra todo lado!:klol

Nvidia ta mandando emails para todos os usuários que tem suas placas obrigando a troca de placa ou execução em praça publica. Nunca pensei q uma empresa chegaria nesses extremos. Os tempos estão difíceis mesmo!:coolface


tenho medo do quanto vai esquentar essas placas
algumas pegarão 90c fácil

Não, pq essas de 900w vão ser tudo com watercooler extremos e cara pra Diabos. Não vão ser placas para nós mortais!:klolz
 

[BF2]PuNiShEr

Mil pontos, LOL!
Mensagens
10.759
Reações
4.830
Pontos
1.194

essa?
Exato! Mas é a primeira versão sem LHR (mesmo que isso não quer dizer mais nada)
 

John Frusciante

Ei mãe, 500 pontos!
Mensagens
2.325
Reações
1.828
Pontos
904
certamente vão utilizar esses altos consumos aí pra justificar a migração para os novos padrões ATX de fontes

e, no fim, acho que isso é receio da nova arquitetura da AMD. A RDNA2 já é incrivelmente mais eficiente que a Ampere, z a Nvidia já deve ter a informação de que a RDNA3 é ainda melhor neste quesito e estão socando toda o desempenho possível para não ficar para trás
 

Tarvos

Ei mãe, 500 pontos!
Mensagens
3.997
Reações
13.885
Pontos
954
Se a 4060 chegar com desempenho de 3080 mas com 8GB de VRAM vai matar a placa pra mim.
 


rodrigoxm49

Bam-bam-bam
Mensagens
5.553
Reações
5.288
Pontos
403
Eu to no ônibus que acha que, novamente, esses consumos ai são todos exagerados.

Chutômetro meu

4070 - 250W~300W
4080 - 350W~400W
4090 - céu aqui é o limite, placa pra trouxa ou pra quem nada no dinheiro

Sinceramente se vier por ai, acho que não é nada de absurdo não.]

4060 se lançar deve ser lá pro finzaço da geração, já que algumas 3xxx devem continuar coexistindo.
 

Grave Uypo

Piloto de Grifos
VIP
Mensagens
17.995
Reações
31.291
Pontos
1.753
Não são placas pra todo mundo, isso é fato. Se vc quer ficar estagnado vc simplesmente não troca de placa. Vc tem essa opção. Quem aqui vai comprar placa q consome 900w? Ninguém. Isso dai é para um nicho de pessoas q tem uma fonte de 2000w tem um pc de 100 mil reais e ta pouco se fodendo pra quanto consome!

Agora a Nvidia poderia fazer uma atualização de 20% de performance e não aumentar em nada o TDP ou até baixar. Mas preferiu dar saltos muito maiores nessa geração e o consumo vai subir. Já estão especulando que uma 4060 vai vir no nível de um 3080ti, por isso q o consumo dela está subindo absurdo pra faixa de 250w. Uma 3080ti consome uns 350w no mínimo. Então vc vai ter uma placa do nível da 3080ti consumindo muito menos.

Agora quem quer ter muito desempenho vai ter q se conformar com 400w pra cima. Se não quiser, não compre espere outra gerações. Não entendo pq esse choro como se todos nós aqui fôssemos obrigados a trocar de placa!
estranho é vc achar normal uma placa de video consumir o mesmo que o um chuveiro eletrico e custar o mesmo que um carro usado.
Tudo isso é empresa cagando na cabeça do consumidor por que testou muito de uns anos pra cá e viu que ele está disposto a pagar rios de dinheiro pra ter o ultimo brinquedo. em vez de fazer um negocio robusto e e dentro do alcance da tecnologia, fica esticando limites assim. essas placas são tão ridiculas que fazem o meme da voodoo 5 6000 parecer não só normal, mas compacto em comparação.

pouco tempo atras isso seria considerado um completo absurdo. mas as empresas sabem que se amassiarem o consumidor eles aceitam qualquer coisa. olha um review falando que é absurdo o consumo de uma gtx 480 bater em 500 no SISTEMA INTEIRO. teve ANOS de meme sobre essa placa por causa disso. agora nego ta querendo lançar placa que sozinha consome 60% a mais e tão batendo palma? vsf.

1654518874210.png

sei que redução dos nodes ja não é mais o que foi um dia, mas isso não é desculpa pra fazer essas aberrações. ainda bem que amd existe, apesar q ela também ta exagerando tanto no preço quanto no consumo... apenas "menos". mas ao menos consegue-se uma AMD decente que consome menos q 250w.

odeio o fato de que quem está fazendo certo é justamente a empresa mais mercenaria de todas, a apple. nao duvido eles aparecerem com uma APU que da 80% dessas monstruosidades e consome só 100w
 
Ultima Edição:

rodrigoxm49

Bam-bam-bam
Mensagens
5.553
Reações
5.288
Pontos
403
estranho é vc achar normal uma placa de video consumir o mesmo que o um chuveiro eletrico e custar o mesmo que um carro usado.
Tudo isso é empresa cagando na cabeça do consumidor por que testou muito de uns anos pra cá e viu que ele está disposto a pagar rios de dinheiro pra ter o ultimo brinquedo. em vez de fazer um negocio robusto e e dentro do alcance da tecnologia, fica esticando limites assim. essas placas são tão ridiculas que fazem o meme da voodoo 5 6000 parecer não só normal, mas compacto em comparação.

pouco tempo atras isso seria considerado um completo absurdo. mas as empresas sabem que se amassiarem o consumidor eles aceitam qualquer coisa. olha um review falando que é absurdo o consumo de uma gtx 480 bater em 500 no SISTEMA INTEIRO. teve ANOS de meme sobre essa placa por causa disso. agora nego ta querendo lançar placa que sozinha consome 60% a mais e tão batendo palma? vsf.

Visualizar anexo 262478

sei que redução dos nodes ja não é mais o que foi um dia, mas isso não é desculpa pra fazer essas aberrações. ainda bem que amd existe, apesar q ela também ta exagerando tanto no preço quanto no consumo... apenas "menos". mas ao menos consegue-se uma AMD decente que consome menos q 250w.

odeio o fato de que quem está fazendo certo é justamente a empresa mais mercenaria de todas, a apple. nao duvido eles aparecerem com uma APU que da 80% dessas monstruosidades e consome só 100w
Cara, se a industria tá pedindo mais performance cada vez mais rápido e estão enfrentando problemas para garantir eficiência, não há o que fazer.

Tem nada a ver com cagar na cabeça. Vc acha que eles gostariam disso? Que é algo planejado? É péssimo pra eles. Se estão lançando assim é porque, para eles, não há outra alternativa.
 

Krion

Ei mãe, 500 pontos!
Mensagens
16.336
Reações
63.366
Pontos
903
Falando em mais consumo:


NVIDIA GeForce RTX 4080 might have 100W higher TDP than RTX 3080


NVIDIA GeForce RTX 4080 with 420W TDP​

As NVIDIA begins sharing first information on RTX 40 series with board partners, the rumor cycle is now shifting to SKUs below RTX 4090.

NVIDIA-GEFORCE-RTX-40-HERO-BANNER.jpg


The RTX 4090 will not be the only 400W+ graphics card in the next generation of desktop series. According to reliable NVIDIA leaker, Kopite7kimi, the upcoming RTX 4080 class graphics card would ship with a power requirement of 420W.

The leaker claims that the upcoming PG139 SKU360 model, which we had already confirmed is the upcoming RTX 4080, will have a TDP of 420W. Kopite clarified that this is the full board power of the next gen RTX 4080 model. With such a TDP, the new model would have a 100W higher power requirement than the current-gen RTX 3080 model.


Possible RTX 4080, PG139-SKU360, has a 420W TGP, still uses AD103.
— kopite7kimi (@kopite7kimi) June 6, 2022

The RTX 4080 is expected to launch with a new GPU called AD103 (Ada), but interestingly, it would share the board with RTX 4090 (PG139). This might suggest that AD102 and AD103 are pin-compatible, and board partners will use the same cooling designs for both models.

Over the weekend, the same leaker also revealed that the RTX 4060 SKU, which is expected as late as next year, would have higher TDP than the current-gen RTX 3070 model. In this case the TDP would increase by 50W.

NVIDIA GeForce RTX 4080 graphics card may launch between September and October this year. However, it is very likely that NVIDIA will be announcing this SKU alongside RTX 4090, which is expected to be released sooner.


RUMORED NVIDIA GeForce RTX 40 Series Specs
VideoCardz.comGeForce RTX 4090GeForce RTX 4080GeForce RTX 4070GeForce RTX 4060
ArchitectureAda (TSMC N4)Ada (TSMC N4)Ada (TSMC N4)Ada (TSMC N4)
GPUAD102-300AD103AD104-400AD106
Board NumberPG139-SKU330PG139-SKU360PG141-SKU341TBC
SMs126TBCTBCTBC
CUDA Cores16128TBCTBCTBC
Memory24 GB G6X16 GB G6X12 GB G6(X?)TBC
Memory Bus384-bit256-bit192-bitTBC
Memory Speed21 GbpsTBC18 Gbps+TBC
TDP~450W~420W~300W-400W220W+
Launch DateAugust-September 2022September-October 2022October-November 2022January 2023
Source: @kopite7kimi
 

ffaabbiio

Mil pontos, LOL!
VIP
Mensagens
14.026
Reações
25.144
Pontos
1.094
estranho é vc achar normal uma placa de video consumir o mesmo que o um chuveiro eletrico e custar o mesmo que um carro usado.
Tudo isso é empresa cagando na cabeça do consumidor por que testou muito de uns anos pra cá e viu que ele está disposto a pagar rios de dinheiro pra ter o ultimo brinquedo. em vez de fazer um negocio robusto e e dentro do alcance da tecnologia, fica esticando limites assim. essas placas são tão ridiculas que fazem o meme da voodoo 5 6000 parecer não só normal, mas compacto em comparação.

pouco tempo atras isso seria considerado um completo absurdo. mas as empresas sabem que se amassiarem o consumidor eles aceitam qualquer coisa. olha um review falando que é absurdo o consumo de uma gtx 480 bater em 500 no SISTEMA INTEIRO. teve ANOS de meme sobre essa placa por causa disso. agora nego ta querendo lançar placa que sozinha consome 60% a mais e tão batendo palma? vsf.

Visualizar anexo 262478

sei que redução dos nodes ja não é mais o que foi um dia, mas isso não é desculpa pra fazer essas aberrações. ainda bem que amd existe, apesar q ela também ta exagerando tanto no preço quanto no consumo... apenas "menos". mas ao menos consegue-se uma AMD decente que consome menos q 250w.

odeio o fato de que quem está fazendo certo é justamente a empresa mais mercenaria de todas, a apple. nao duvido eles aparecerem com uma APU que da 80% dessas monstruosidades e consome só 100w
Isso é a concorrência. A Intel enfrentou o mesmo problema aumentando o clock e consumo dos seus cpus pra concorrer com os ryzen.

Se o ganho for de 100% mesmo de desempenho da linha 4000 para a linha 3000 com um aumento de consumo de 25 a 30% no consumo eu não vejo nada de absurdo.

Ainda terão outras opções gastando menos, tanto da nvidia, como da concorrência.

Enviado de meu M2012K11AG usando o Tapatalk
 

T1mp4s

Mil pontos, LOL!
Mensagens
28.419
Reações
34.507
Pontos
1.354
Cara, se a industria tá pedindo mais performance cada vez mais rápido e estão enfrentando problemas para garantir eficiência, não há o que fazer.

Tem nada a ver com cagar na cabeça. Vc acha que eles gostariam disso? Que é algo planejado? É péssimo pra eles. Se estão lançando assim é porque, para eles, não há outra alternativa.
Há alternativa, mas isso custa dinheiro, então eles empurram o preju para o trouxa...digo, consumidor inteligente.
 

wtsds

Mil pontos, LOL!
Mensagens
20.658
Reações
20.631
Pontos
1.344
estranho é vc achar normal uma placa de video consumir o mesmo que o um chuveiro eletrico e custar o mesmo que um carro usado.
Tudo isso é empresa cagando na cabeça do consumidor por que testou muito de uns anos pra cá e viu que ele está disposto a pagar rios de dinheiro pra ter o ultimo brinquedo. em vez de fazer um negocio robusto e e dentro do alcance da tecnologia, fica esticando limites assim. essas placas são tão ridiculas que fazem o meme da voodoo 5 6000 parecer não só normal, mas compacto em comparação.

pouco tempo atras isso seria considerado um completo absurdo. mas as empresas sabem que se amassiarem o consumidor eles aceitam qualquer coisa. olha um review falando que é absurdo o consumo de uma gtx 480 bater em 500 no SISTEMA INTEIRO. teve ANOS de meme sobre essa placa por causa disso. agora nego ta querendo lançar placa que sozinha consome 60% a mais e tão batendo palma? vsf.

Visualizar anexo 262478

sei que redução dos nodes ja não é mais o que foi um dia, mas isso não é desculpa pra fazer essas aberrações. ainda bem que amd existe, apesar q ela também ta exagerando tanto no preço quanto no consumo... apenas "menos". mas ao menos consegue-se uma AMD decente que consome menos q 250w.

odeio o fato de que quem está fazendo certo é justamente a empresa mais mercenaria de todas, a apple. nao duvido eles aparecerem com uma APU que da 80% dessas monstruosidades e consome só 100w

Eu não gosto, mas eu não vejo pra onde ir nesse momento. Ou é isso pra ter um aumento de mais de 100% acima da antiga geração, ou é fazer upgrade de comadre, vc sobe um 20% de desempenho no máximo e mantém TDP. Como tanto a Nvidia como a AMD gostam de marketiar essas placas com ganhos absurdos nas suas apresentações, e nenhuma quer dar pra outra o titulo de melhor placa. Elas sempre estão dando saltos muito altos e infelizmente o consumo está subindo muito.

Vc sempre terá a opção de não comprar. Eu não vejo absurdo em placas de 350w a 400w. Ainda acho q é aceitável! Desde q o ganho seja substancial. E eu já falei aqui. Se o TDP da 4070 for 400w, e o desempenho acima da 3090. Fazendo um undervolt pra 300w se vai perder pouca performance e vai continuar com uma placa com desempenho bom e gastando menos que uma 3090.

Agora infelizmente é essa a tendência. Tanto da Nvidia como AMD. A AMD vai ter um acréscimo de TDP na sua série 7000. O ultimo rumor falava que a 7900XT tava com TDP entre 375w a 450w dependendo do clock. Ou seja, não vai ter pra onde vc correr. Se pode esperar uma 2 gerações ai pegar uma série 60 que vai gastar menos e vai ter um desempenho absurdo daqui 2 anos.

Sobre a Apple, quero ver. Se ela entregar uma APU que bate um 3090 consumindo 100w, eu coloco na porta do meu prédio um cartaz enorme fazendo publicidade grátis. Mesmo assim, é uma empresa q trabalha para um nicho e seus preços são proibitivos.
 

wtsds

Mil pontos, LOL!
Mensagens
20.658
Reações
20.631
Pontos
1.344
Eu to no ônibus que acha que, novamente, esses consumos ai são todos exagerados.

Chutômetro meu

4070 - 250W~300W
4080 - 350W~400W
4090 - céu aqui é o limite, placa pra trouxa ou pra quem nada no dinheiro

Sinceramente se vier por ai, acho que não é nada de absurdo não.]

4060 se lançar deve ser lá pro finzaço da geração, já que algumas 3xxx devem continuar coexistindo.

Já saiu rumor q essa geração ela vai sair 1 mês depois da 4070. Em janeiro de 2023!

Isso é a concorrência. A Intel enfrentou o mesmo problema aumentando o clock e consumo dos seus cpus pra concorrer com os ryzen.

Se o ganho for de 100% mesmo de desempenho da linha 4000 para a linha 3000 com um aumento de consumo de 25 a 30% no consumo eu não vejo nada de absurdo.

Ainda terão outras opções gastando menos, tanto da nvidia, como da concorrência.

Enviado de meu M2012K11AG usando o Tapatalk

Exatamente! A Galera acha q vc é obrigado a compra a 4090ti de 900w de consumo. Porra! Compra uma uma 4060, 4070. Quer uma mais forte e acha absurdo o consumo? Espere. Ninguém aqui é obrigado a vender suas 3070 3080 pra comprar essas novas.
 

rodrigoxm49

Bam-bam-bam
Mensagens
5.553
Reações
5.288
Pontos
403
Há alternativa, mas isso custa dinheiro, então eles empurram o preju para o trouxa...digo, consumidor inteligente.
Se tivesse alternativa, vc pode ter certeza que eles adorariam vender uma placa com máximo de eficiência por cima. Essa lógica ai tá tipo aquela do "patrão malvadão" que brasileiro tanta ama. O mundo não funciona assim não.
 

T1mp4s

Mil pontos, LOL!
Mensagens
28.419
Reações
34.507
Pontos
1.354
Se tivesse alternativa, vc pode ter certeza que eles adorariam vender uma placa com máximo de eficiência por cima. Essa lógica ai tá tipo aquela do "patrão malvadão" que brasileiro tanta ama. O mundo não funciona assim não.
kkkkkk
Funciona sim, mas vc que não quer ver, se aparecer uma geração que consome menos, vc vai me dizer o que? Que naquele ano eles não tinha recursos e agora tem?
Conta outra.
Isso é lançamento rushado, a nvidia foi pega com as calças na mão pela amd e agora lançam de qualquer jeito.
A nvidia tem o mercado na mão e poderia lançar até ano que vem se quisesse, mas a ganancia fala mais alto.
 

rodrigoxm49

Bam-bam-bam
Mensagens
5.553
Reações
5.288
Pontos
403
kkkkkk
Funciona sim, mas vc que não quer ver, se aparecer uma geração que consome menos, vc vai me dizer o que?
Mas vai aparecer uma geração que consome menos. É sempre assim com toda microarquitetura. Ela satura e vc precisa repensar, replanejar ou só seguir o planejamento que já estava inclusive esperando que neste ponto chegasse antes de partir para outro ou focar em outro. Ou enquanto você está investindo em pesquisa e desenvolvimento dessa outra tecnologia, dai você precisa continuar saturando a atual. Super normal, nada demais e principalmente nesse campo: nada novo.

Não sabemos. O que sabemos é que a nVidia não tem malucos lá dentro. Nem na AMD. Nem na Intel. Nem em nenhuma empresa desse tamanho, que daria tudo possível pra ventar o produto que mais agrega valor e necessidade dos consumidores. Mas o possível não é sempre o melhor.

Eu queria entender o que vcs realmente pensam sobre isso. QUe a nVidia, AMD ou qlq outra faz de sacanagem? Que ela faz pra agradar fabricante de fonte? Trocando com isso ser uma empresa que não vende o que tem de melhor? "Ah, perai, vou aumentar o consumo disso aqui ou não vou fazer questão de melhorar, mesmo tendo muita competição, pra agradar uns parceiros aqui e desagradar os clientes. Afinal quem liga pra clientes, né? "

Gente, por favor. Vamos acordar para o mundo real onde empresas precisam ser extremamente competitivas nesse mercado, no mundo do marketing, onde tudo que vc tem é o marketing e ser bem falado pelos consumidores, agradá-lo ao máximo possível. Não tem monopólio absoluto. Vcs pensam como se houvesse um.
 

T1mp4s

Mil pontos, LOL!
Mensagens
28.419
Reações
34.507
Pontos
1.354
Mas vai aparecer uma geração que consome menos. É sempre assim com toda microarquitetura. Ela satura e vc precisa repensar, replanejar ou só seguir o planejamento que já estava inclusive esperando que neste ponto chegasse antes de partir para outro ou focar em outro. Ou enquanto você está investindo em pesquisa e desenvolvimento dessa outra tecnologia, dai você precisa continuar saturando a atual. Super normal, nada demais e principalmente nesse campo: nada novo.

Não sabemos. O que sabemos é que a nVidia não tem malucos lá dentro. Nem na AMD. Nem na Intel. Nem em nenhuma empresa desse tamanho, que daria tudo possível pra ventar o produto que mais agrega valor e necessidade dos consumidores. Mas o possível não é sempre o melhor.

Eu queria entender o que vcs realmente pensam sobre isso. QUe a nVidia, AMD ou qlq outra faz de sacanagem? Que ela faz pra agradar fabricante de fonte? Trocando com isso ser uma empresa que não vende o que tem de melhor? "Ah, perai, vou aumentar o consumo disso aqui ou não vou fazer questão de melhorar, mesmo tendo muita competição, pra agradar uns parceiros aqui e desagradar os clientes. Afinal quem liga pra clientes, né? "

Gente, por favor. Vamos acordar para o mundo real onde empresas precisam ser extremamente competitivas nesse mercado, no mundo do marketing, onde tudo que vc tem é o marketing e ser bem falado pelos consumidores, agradá-lo ao máximo possível. Não tem monopólio absoluto. Vcs pensam como se houvesse um.
As empresas pintam e bordam com os consumidores, por que eles sabem que mesmo não agradando todo mundo, ainda vai vender, simples assim.
Não digo que é de sacanagem, mas não é como se eles estivessem dando prioridade pra isso não.
Vai vender e muito, mas terá alguma perda e claro que a nvidia vai querer resgatar esses que torceram o nariz lançando uma geração mais eficiente depois.
Como disse acima, a ganancia comanda.
 

rodrigoxm49

Bam-bam-bam
Mensagens
5.553
Reações
5.288
Pontos
403
e claro que a nvidia vai querer resgatar esses que torceram o nariz lançando uma geração mais eficiente depois.
Então o negócio dos gananciosos é ir agradando metade dos consumidores aqui, outra metade no lançamento futuro e assim vai?
 

ayato_rahxephon

Mil pontos, LOL!
Mensagens
1.925
Reações
1.403
Pontos
1.139
Mas vai aparecer uma geração que consome menos. É sempre assim com toda microarquitetura. Ela satura e vc precisa repensar, replanejar ou só seguir o planejamento que já estava inclusive esperando que neste ponto chegasse antes de partir para outro ou focar em outro. Ou enquanto você está investindo em pesquisa e desenvolvimento dessa outra tecnologia, dai você precisa continuar saturando a atual. Super normal, nada demais e principalmente nesse campo: nada novo.

Não sabemos. O que sabemos é que a nVidia não tem malucos lá dentro. Nem na AMD. Nem na Intel. Nem em nenhuma empresa desse tamanho, que daria tudo possível pra ventar o produto que mais agrega valor e necessidade dos consumidores. Mas o possível não é sempre o melhor.

Eu queria entender o que vcs realmente pensam sobre isso. QUe a nVidia, AMD ou qlq outra faz de sacanagem? Que ela faz pra agradar fabricante de fonte? Trocando com isso ser uma empresa que não vende o que tem de melhor? "Ah, perai, vou aumentar o consumo disso aqui ou não vou fazer questão de melhorar, mesmo tendo muita competição, pra agradar uns parceiros aqui e desagradar os clientes. Afinal quem liga pra clientes, né? "

Gente, por favor. Vamos acordar para o mundo real onde empresas precisam ser extremamente competitivas nesse mercado, no mundo do marketing, onde tudo que vc tem é o marketing e ser bem falado pelos consumidores, agradá-lo ao máximo possível. Não tem monopólio absoluto. Vcs pensam como se houvesse um.

Não sei se você lembra, mas teve uma geração da Nvidia (que eu não lembro também exatamente qual era) que ela simplesmente tinha um chip que era bem melhor, e não lançou naquele momento porque não tinha concorrência da AMD. Aí a Nvidia lançou a nova geração com um chip "requentado" pouca coisa superior, só para lançar e faturar.

Os dois lados do que estão falando aí em cima são verdade. A empresa vai fazer de tudo para lucrar, mesmo que tenha que fazer o consumidor de trouxa, mas também faz de tudo para inovar, melhorar o produto. O negócio é que tem hora que um lado se sobressai mais que o outro.
 

Gray-fox

Mil pontos, LOL!
Mensagens
5.238
Reações
10.831
Pontos
1.034
Preço das placas baixando e minha mão coçando pra trocar minha GTX 1070, me ajudem, troco agora por uma 3070 ou espero a 4070?

Duvida cruel.

Enviado de meu SM-M625F usando o Tapatalk
 

Falkner

Ei mãe, 500 pontos!
Mensagens
7.790
Reações
10.935
Pontos
753
Preço das placas baixando e minha mão coçando pra trocar minha GTX 1070, me ajudem, troco agora por uma 3070 ou espero a 4070?

Duvida cruel.

Enviado de meu SM-M625F usando o Tapatalk

os rumores da série 40 são fortes, de que serão placas bem mais potentes que a série 30, e tbm consumindo mt mais
pode ser que compre agora e fim de ano venha a 4070 com toda essa potência prometida
se não se importa em manter sempre com o último lançamento, manda ver
não é como se a 3070 fosse ficar fraca com o lançamento das novas
 

Gray-fox

Mil pontos, LOL!
Mensagens
5.238
Reações
10.831
Pontos
1.034
os rumores da série 40 são fortes, de que serão placas bem mais potentes que a série 30, e tbm consumindo mt mais
pode ser que compre agora e fim de ano venha a 4070 com toda essa potência prometida
se não se importa em manter sempre com o último lançamento, manda ver
não é como se a 3070 fosse ficar fraca com o lançamento das novas

Pois é, fico com receio da 4070 ser uma nova "pascal", não tenho certeza se a 3070 aguenta até o final da geração com tudo no ultra, RT, 60 fps (mesmo no Full HD), por conta dos 8gb de vram, o que pesa também é que não tem nenhum jogo que me interesse que vai ser lançado esse ano.
 

ayato_rahxephon

Mil pontos, LOL!
Mensagens
1.925
Reações
1.403
Pontos
1.139
Pois é, fico com receio da 4070 ser uma nova "pascal", não tenho certeza se a 3070 aguenta até o final da geração com tudo no ultra, RT, 60 fps (mesmo no Full HD), por conta dos 8gb de vram, o que pesa também é que não tem nenhum jogo que me interesse que vai ser lançado esse ano.

Particularmente eu não aconselharia ir de 3070

Essa não aguenta até o final da gen.

8g muito pouco e desempenho "fraco" em 4k.

1080p segura, mas é aquilo né; Depois que você usa um DSR ou um multiplicador de resolução interno de um jogo, nunca mais quer voltar para 1080p (Warzone que o diga)

Fora que Ray Tracing a 3070 não segura messmo.

Tipo, eu coloquei uns posts atrás uma dúvida parecida, mas com a 3080. Resolvi cancelar a compra que fiz e aguardar.
 

Falkner

Ei mãe, 500 pontos!
Mensagens
7.790
Reações
10.935
Pontos
753
Particularmente eu não aconselharia ir de 3070

Essa não aguenta até o final da gen.

8g muito pouco e desempenho "fraco" em 4k.

1080p segura, mas é aquilo né; Depois que você usa um DSR ou um multiplicador de resolução interno de um jogo, nunca mais quer voltar para 1080p (Warzone que o diga)

Fora que Ray Tracing a 3070 não segura messmo.

Tipo, eu coloquei uns posts atrás uma dúvida parecida, mas com a 3080. Resolvi cancelar a compra que fiz e aguardar.

no momento nenhuma segura
4k, rt, etc
 

Krion

Ei mãe, 500 pontos!
Mensagens
16.336
Reações
63.366
Pontos
903



(traduzido do alemão by google)

Consumo de energia da série GeForce RTX 40, com base em rumores e suposições - em comparação com as gerações anteriores da nVidia

Um tweet recente do Leaker Kopite7kimi @ Twitter , que previa maior consumo de energia para a GeForce RTX 4060 do que a atual GeForce RTX 3070, causou um rebuliço. Isso seria mais de 220 watts - quanto mais não foi dito, mas é limitado em termos práticos pelo consumo de aproximadamente 300 watts relatado para a GeForce RTX 4070 (rumores). A GeForce RTX 4060 deve sair em ~230-250 watts - o que seria muito rico para uma solução mainstream dedicada, mas também a tendência geral da geração "Ada Lovelace"seguido por valores crescentes de consumo de energia. Certamente ainda não há valores finais para isso - o que não pode ser, uma vez que a nVidia ainda não concluiu a fase de design do produto para o chip AD102 e os chips AD104 e menores ainda estão antes da fase de teste/validação (após o tape-out ) ficar.

Eu não me importo com a data de lançamento real. Estou apenas curioso sobre o desempenho da RTX 4060 , que consome mais energia que a RTX 3070.
Fonte: Kopite7kimi @ Twitter em 5 de junho de 2022
Mas tudo o que foi relatado recentemente sobre isso está claramente apontando na direção certa: Ada Lovelace está se tornando um grande soluço, com os valores de consumo de energia aumentando claramente em todo o portfólio.

E isso é um tanto surpreendente tendo em vista o salto significativo na tecnologia de fabricação de 8nm Samsung para 4nm TSMC, são quase dois nós completos e, além disso, a produção TSMC mais substancial. Mas é claro que, com a vantagem de uma nova produção, apenas a vantagem de área é realmente garantida, enquanto você tem que escolher entre o clock e o consumo de energia: um ou outro - ou uma mistura de ambos, mas nunca os dois efeitos juntos na íntegra.

E assim a nVidia poderia ter optado por taxas de clock mais altas com os chips gráficos Ada Lovelace, enquanto renunciava a vantagens notáveis de consumo de energia (por transistor). E como os chips gráficos Ada Lovelace provavelmente pesam significativamente mais transistores do que seus antecessores por meio de mais unidades de hardware e clusters de shaders mais espessos , o resultado é até um aumento geral no consumo.

Do ponto de vista da nVidia, isso até faz sentido: se você ficar apenas em segundo lugar em termos de desempenho, você perde automaticamente. Por outro lado, se você vencer a competição de desempenho, poderá cobrir muito melhor o maior consumo de energia. De certa forma, tudo isso é consequência da competição mais acirrada com a AMD: às vezes, quando a AMD não conseguia entregar nada no topo da faixa de desempenho, a nVidia permaneceu com um consumo máximo de cerca de 250 watts para muitas gerações de gráficos cartões.

Agora que a AMD está perseguindo a nVidia, essa "reserva" está sendo aproveitada, porque mais consumo de energia resulta em desempenho gratuito para os desenvolvedores de chips gráficos. Todas as outras maneiras de obter mais desempenho exigem um esforço de hardware (claramente) maior e, portanto, uma situação de custo mais alto. No entanto, este jogo também não pode durar para sempre:


consumo realKeplerMaxwellPascalTuringAmpereAda Lovelace
Gfx-GenerationSérie GeForce 600, 2012Série GeForce 900, 2014Série GeForce 10, 2016Série GeForce 20, 2018Série GeForce 30, 2020Série GeForce 40, 2022
GeForce xx60113W109W117 W160 W172 Wcerca de 230-250 W
GeForce xx70144W161W147 W185 W221Wcerca de 300W
GeForce xx80169W174 W176 W228 W325 Wcerca de 400-450W
GF xx80Ti/xx90206 W (Titã)236 W (980 Ti)239W (1080Ti)272 W (2080 Ti)359W (3090)cerca de 450-550W
maior modelo245 W (780 Ti)240 W (Titan X)251W (TitanXp)~ 290W (TitanRTX)462 W (3090 Ti)cerca de 600-800W
Consumo real de acordo com a visão geral do consumo de energia para placas gráficas DirectX 11/12 ; relacionadas a variantes do portfólio inicial de produtos (sem atualizações posteriores) - exceto para o último grupo "maior modelo", onde tudo é permitido; Dados sobre "Ada Lovelace" ou a série GeForce 40 com base no boato.


Voltando à GeForce RTX 4060, um consumo de energia de aproximadamente 230-250 watts comparado aos aproximadamente 300 watts da GeForce RTX 4070 indica que o hardware está bem próximo um do outro - mais próximo do que os dois (supostamente) gráficos subjacentes chips são realmente permitidos a oferecer. Porque o chip AD106 possui apenas 36 clusters de shader em uma interface de 128 bits, enquanto o chip AD104 da GeForce RTX 4070 possui 60 clusters de shader em uma interface de 192 bits.

Se os valores de consumo de energia relatados estiverem meio corretos, a GeForce RTX 4060 parece mais com 40-46 clusters de shaders (pode ser facilmente interpolado a partir da proporção da GeForce RTX 3060 Ti e 3070). Além da GeForce RTX 4080, para a qual ainda não há sinal claro de vida do chip AD103 (supostamente usado para esse fim), uma segunda incerteza está se acumulando no portfólio da GeForce RTX 40: se a GeForce RTX 4060 é realmente Baseado em AD106 - ou talvez não, mas baseado em AD104.

A data posterior da placa pode indicar inicialmente um chip gráfico diferente, portanto AD106. Por outro lado, isso não precisa significar nada, a nVidia gosta de trazer suas soluções mainstream com um certo desfasamento de tempo - possivelmente também para que os estoques de mercadorias antigas sejam adequadamente reduzidos antecipadamente e nenhuma campanha de vendas com preços que não 't gosto nVidia são necessários.

Uma GeForce RTX 4060 baseada em AD104 também seria atraente para a nVidia por dois motivos: Por um lado, você também pode enviá-la ao mercado com 12 GB - um recurso não insignificante, já que a atual GeForce RTX 3060 também já oferece essa memória configuração. E por outro lado, este AD104 emagrecendo seria um oponente "natural" para o "Navi 33" da AMDchip AD104 completo muito grande, mas o chip AD106 subjacente parece muito pequeno. O que realmente está acontecendo aqui com a GeForce RTX 4060 precisa de mais esclarecimentos.


Chip-BaseHardwareLiberar
GeForce RTX 4090AD102-300126 SM @ 384 bits, 24 GB GDDR6Xagosto-outubro
GeForce RTX 4080a) AD102
b) AD103 (ou primeiro AD102, depois AD103)
a) ca. 90-100 SM @ 320 bits e 20 GB ou 384 bits e 12 GB GDDR6X
b) 80-84 SM @ 256 bits, 16 GB GDDR6X
setembro-novembro
GeForce RTX 4070AD104-40058-60 SM @ 192 bits, 12 GB GDDR6outubro-dezembro
GeForce RTX 4060a) AD104
b) AD106
a) ca. 40-46 SM @ 128 bits e 8 GB ou 192 bits e 12 GB GDDR6
b) 34-36 SM @ 128 bits, 8 GB GDDR6
1º trimestre de 2023
Informações sobre hardware futuro com base em rumores e suposições
 
Ultima Edição:

Yatahaze

Ei mãe, 500 pontos!
Mensagens
3.374
Reações
10.648
Pontos
703
com essa potência toda e um node tão avançado, é possível também que cada segmento (xx60, 70, 80) da Lovelace tenham, também, preços mais elevados do que seus antecessores... confere?
 

wtsds

Mil pontos, LOL!
Mensagens
20.658
Reações
20.631
Pontos
1.344
com essa potência toda e um node tão avançado, é possível também que cada segmento (xx60, 70, 80) da Lovelace tenham, também, preços mais elevados do que seus antecessores... confere?

Confere. Depende da concorrência tb né? Se a AMD for agressiva acredito q a Nvidia possa ser tb. Pena a Intel não ter placas pra disputar com essas.
 

[BF2]PuNiShEr

Mil pontos, LOL!
Mensagens
10.759
Reações
4.830
Pontos
1.194
A questão é o preço, eu não sei como é para vocês mas uma RTX 3070 a R$ 4.000,00 não é nem de longe um preço ok para "jogar joguinhos" aqui em casa haha.

Eu imagino que a RTX 4070 não venha nem perto desse valor, suspeito bem acima dos R$ 6.000,00

Eu só troco minha 3070 se tiver com grana sobrando ou ainda num negócio bom ou na pior das hipóteses vá começar a apanhar em 1080p/60.

Olha quem aqui me conhece sabe que troco mto de PC, mas suspeito que essa geração 40XX eu pule.
 

T1mp4s

Mil pontos, LOL!
Mensagens
28.419
Reações
34.507
Pontos
1.354
A questão é o preço, eu não sei como é para vocês mas uma RTX 3070 a R$ 4.000,00 não é nem de longe um preço ok para "jogar joguinhos" aqui em casa haha.

Eu imagino que a RTX 4070 não venha nem perto desse valor, suspeito bem acima dos R$ 6.000,00

Eu só troco minha 3070 se tiver com grana sobrando ou ainda num negócio bom ou na pior das hipóteses vá começar a apanhar em 1080p/60.

Olha quem aqui me conhece sabe que troco mto de PC, mas suspeito que essa geração 40XX eu pule.
Eu sempre vi a gpu como sendo "o console", então se o console custa 4k, nada mais natural a gpu custar o mesmo.
O restante das peças vc consegue com o tempo e elas até conseguem levar a gpu, mas quanto mais forte, melhor é claro.
Se a RTX 3070 é mais forte que o ps5, acho valido o preço.
O problema é o dolar, por que se ele cai, então é claro que o console não vai custar mais os 4k e nem a gpu.
 

Poor_Boy

Mil pontos, LOL!
Mensagens
24.921
Reações
40.890
Pontos
1.444
A questão é o preço, eu não sei como é para vocês mas uma RTX 3070 a R$ 4.000,00 não é nem de longe um preço ok para "jogar joguinhos" aqui em casa haha.

Eu imagino que a RTX 4070 não venha nem perto desse valor, suspeito bem acima dos R$ 6.000,00

Eu só troco minha 3070 se tiver com grana sobrando ou ainda num negócio bom ou na pior das hipóteses vá começar a apanhar em 1080p/60.

Olha quem aqui me conhece sabe que troco mto de PC, mas suspeito que essa geração 40XX eu pule.
Qual resolução que você joga? Dependendo nem é questão de grana, mas de não ter a menor necessidade de trocar mesmo
 

T1mp4s

Mil pontos, LOL!
Mensagens
28.419
Reações
34.507
Pontos
1.354
Qual resolução que você joga? Dependendo nem é questão de grana, mas de não ter a menor necessidade de trocar mesmo
Eu atualmente jogo em 1080p, mas pretendo daqui uns 2 anos mudar para 1440p.
Uso a RTX 3070.
Acredito que nessas resoluções, os 8Gb de vram sejam mais do que suficientes.
Já 4k isso pode depender do jogo, mas não acho que todo jogo vá utilizar mais do que os 8gb de vram.
 

Poor_Boy

Mil pontos, LOL!
Mensagens
24.921
Reações
40.890
Pontos
1.444
Eu atualmente jogo em 1080p, mas pretendo daqui uns 2 anos mudar para 1440p.
Uso a RTX 3070.
Acredito que nessas resoluções, os 8Gb de vram sejam mais do que suficientes.
Já 4k isso pode depender do jogo, mas não acho que todo jogo vá utilizar mais do que os 8gb de vram.
1080p uma 3070 dura mais 3 anos fácil jogando no alto/ultra com DLSS.
 
Topo Fundo