T1mp4s
Mil pontos, LOL!
- Mensagens
- 28.461
- Reações
- 34.570
- Pontos
- 1.354
E o dissipador delas? Será gigantesco, placa grossa e pesada pra cacete.tenho medo do quanto vai esquentar essas placas
algumas pegarão 90c fácil
Registre uma conta gratuita hoje para se tornar um membro! Uma vez conectado, você poderá participar neste site adicionando seus próprios tópicos e postagens, além de se conectar com outros membros por meio de sua própria caixa de entrada privada!
E o dissipador delas? Será gigantesco, placa grossa e pesada pra cacete.tenho medo do quanto vai esquentar essas placas
algumas pegarão 90c fácil
Prefiro aguardar uma versão refinada no consumo e dando o mesmo salto.
E como assim assim não sou obrigado a trocar de placa? A nvidia bateu na minha porta dizendo que se eu não trocar de placa, eu serei executado VIVO!
tenho medo do quanto vai esquentar essas placas
algumas pegarão 90c fácil
Exato! Mas é a primeira versão sem LHR (mesmo que isso não quer dizer mais nada)Placa de Vídeo Galax NVIDIA GeForce RTX 3070 (1-Click OC), LHR, 8GB, GDDR6, DLSS, Ray Tracing, 37NSl6MD2KCH
Placa de Vídeo Galax NVIDIA GeForce RTX 3070 (1-Click OC), LHR, 8GB, GDDR6, DLSS, Ray Tracing, 37NSl6MD2KCH. Além do cooler, a série EX também adotou PCB de design sem referência com área ampliada para layout de componentes mais relaxado e baixa densidade de calor. Fases de energia extra também...www.terabyteshop.com.br
essa?
Se a 4060 chegar com desempenho de 3080 mas com 8GB de VRAM vai matar a placa pra mim.
estranho é vc achar normal uma placa de video consumir o mesmo que o um chuveiro eletrico e custar o mesmo que um carro usado.Não são placas pra todo mundo, isso é fato. Se vc quer ficar estagnado vc simplesmente não troca de placa. Vc tem essa opção. Quem aqui vai comprar placa q consome 900w? Ninguém. Isso dai é para um nicho de pessoas q tem uma fonte de 2000w tem um pc de 100 mil reais e ta pouco se fodendo pra quanto consome!
Agora a Nvidia poderia fazer uma atualização de 20% de performance e não aumentar em nada o TDP ou até baixar. Mas preferiu dar saltos muito maiores nessa geração e o consumo vai subir. Já estão especulando que uma 4060 vai vir no nível de um 3080ti, por isso q o consumo dela está subindo absurdo pra faixa de 250w. Uma 3080ti consome uns 350w no mínimo. Então vc vai ter uma placa do nível da 3080ti consumindo muito menos.
Agora quem quer ter muito desempenho vai ter q se conformar com 400w pra cima. Se não quiser, não compre espere outra gerações. Não entendo pq esse choro como se todos nós aqui fôssemos obrigados a trocar de placa!
Cara, se a industria tá pedindo mais performance cada vez mais rápido e estão enfrentando problemas para garantir eficiência, não há o que fazer.estranho é vc achar normal uma placa de video consumir o mesmo que o um chuveiro eletrico e custar o mesmo que um carro usado.
Tudo isso é empresa cagando na cabeça do consumidor por que testou muito de uns anos pra cá e viu que ele está disposto a pagar rios de dinheiro pra ter o ultimo brinquedo. em vez de fazer um negocio robusto e e dentro do alcance da tecnologia, fica esticando limites assim. essas placas são tão ridiculas que fazem o meme da voodoo 5 6000 parecer não só normal, mas compacto em comparação.
pouco tempo atras isso seria considerado um completo absurdo. mas as empresas sabem que se amassiarem o consumidor eles aceitam qualquer coisa. olha um review falando que é absurdo o consumo de uma gtx 480 bater em 500 no SISTEMA INTEIRO. teve ANOS de meme sobre essa placa por causa disso. agora nego ta querendo lançar placa que sozinha consome 60% a mais e tão batendo palma? vsf.
Visualizar anexo 262478
sei que redução dos nodes ja não é mais o que foi um dia, mas isso não é desculpa pra fazer essas aberrações. ainda bem que amd existe, apesar q ela também ta exagerando tanto no preço quanto no consumo... apenas "menos". mas ao menos consegue-se uma AMD decente que consome menos q 250w.
odeio o fato de que quem está fazendo certo é justamente a empresa mais mercenaria de todas, a apple. nao duvido eles aparecerem com uma APU que da 80% dessas monstruosidades e consome só 100w
Possible RTX 4080, PG139-SKU360, has a 420W TGP, still uses AD103.
— kopite7kimi (@kopite7kimi) June 6, 2022
RUMORED NVIDIA GeForce RTX 40 Series Specs | ||||
---|---|---|---|---|
VideoCardz.com | GeForce RTX 4090 | GeForce RTX 4080 | GeForce RTX 4070 | GeForce RTX 4060 |
Architecture | Ada (TSMC N4) | Ada (TSMC N4) | Ada (TSMC N4) | Ada (TSMC N4) |
GPU | AD102-300 | AD103 | AD104-400 | AD106 |
Board Number | PG139-SKU330 | PG139-SKU360 | PG141-SKU341 | TBC |
SMs | 126 | TBC | TBC | TBC |
CUDA Cores | 16128 | TBC | TBC | TBC |
Memory | 24 GB G6X | 16 GB G6X | 12 GB G6(X?) | TBC |
Memory Bus | 384-bit | 256-bit | 192-bit | TBC |
Memory Speed | 21 Gbps | TBC | 18 Gbps+ | TBC |
TDP | ~450W | ~420W | ~300W-400W | 220W+ |
Launch Date | August-September 2022 | September-October 2022 | October-November 2022 | January 2023 |
Isso é a concorrência. A Intel enfrentou o mesmo problema aumentando o clock e consumo dos seus cpus pra concorrer com os ryzen.estranho é vc achar normal uma placa de video consumir o mesmo que o um chuveiro eletrico e custar o mesmo que um carro usado.
Tudo isso é empresa cagando na cabeça do consumidor por que testou muito de uns anos pra cá e viu que ele está disposto a pagar rios de dinheiro pra ter o ultimo brinquedo. em vez de fazer um negocio robusto e e dentro do alcance da tecnologia, fica esticando limites assim. essas placas são tão ridiculas que fazem o meme da voodoo 5 6000 parecer não só normal, mas compacto em comparação.
pouco tempo atras isso seria considerado um completo absurdo. mas as empresas sabem que se amassiarem o consumidor eles aceitam qualquer coisa. olha um review falando que é absurdo o consumo de uma gtx 480 bater em 500 no SISTEMA INTEIRO. teve ANOS de meme sobre essa placa por causa disso. agora nego ta querendo lançar placa que sozinha consome 60% a mais e tão batendo palma? vsf.
Visualizar anexo 262478
sei que redução dos nodes ja não é mais o que foi um dia, mas isso não é desculpa pra fazer essas aberrações. ainda bem que amd existe, apesar q ela também ta exagerando tanto no preço quanto no consumo... apenas "menos". mas ao menos consegue-se uma AMD decente que consome menos q 250w.
odeio o fato de que quem está fazendo certo é justamente a empresa mais mercenaria de todas, a apple. nao duvido eles aparecerem com uma APU que da 80% dessas monstruosidades e consome só 100w
Há alternativa, mas isso custa dinheiro, então eles empurram o preju para o trouxa...digo, consumidor inteligente.Cara, se a industria tá pedindo mais performance cada vez mais rápido e estão enfrentando problemas para garantir eficiência, não há o que fazer.
Tem nada a ver com cagar na cabeça. Vc acha que eles gostariam disso? Que é algo planejado? É péssimo pra eles. Se estão lançando assim é porque, para eles, não há outra alternativa.
estranho é vc achar normal uma placa de video consumir o mesmo que o um chuveiro eletrico e custar o mesmo que um carro usado.
Tudo isso é empresa cagando na cabeça do consumidor por que testou muito de uns anos pra cá e viu que ele está disposto a pagar rios de dinheiro pra ter o ultimo brinquedo. em vez de fazer um negocio robusto e e dentro do alcance da tecnologia, fica esticando limites assim. essas placas são tão ridiculas que fazem o meme da voodoo 5 6000 parecer não só normal, mas compacto em comparação.
pouco tempo atras isso seria considerado um completo absurdo. mas as empresas sabem que se amassiarem o consumidor eles aceitam qualquer coisa. olha um review falando que é absurdo o consumo de uma gtx 480 bater em 500 no SISTEMA INTEIRO. teve ANOS de meme sobre essa placa por causa disso. agora nego ta querendo lançar placa que sozinha consome 60% a mais e tão batendo palma? vsf.
Visualizar anexo 262478
sei que redução dos nodes ja não é mais o que foi um dia, mas isso não é desculpa pra fazer essas aberrações. ainda bem que amd existe, apesar q ela também ta exagerando tanto no preço quanto no consumo... apenas "menos". mas ao menos consegue-se uma AMD decente que consome menos q 250w.
odeio o fato de que quem está fazendo certo é justamente a empresa mais mercenaria de todas, a apple. nao duvido eles aparecerem com uma APU que da 80% dessas monstruosidades e consome só 100w
Eu to no ônibus que acha que, novamente, esses consumos ai são todos exagerados.
Chutômetro meu
4070 - 250W~300W
4080 - 350W~400W
4090 - céu aqui é o limite, placa pra trouxa ou pra quem nada no dinheiro
Sinceramente se vier por ai, acho que não é nada de absurdo não.]
4060 se lançar deve ser lá pro finzaço da geração, já que algumas 3xxx devem continuar coexistindo.
Isso é a concorrência. A Intel enfrentou o mesmo problema aumentando o clock e consumo dos seus cpus pra concorrer com os ryzen.
Se o ganho for de 100% mesmo de desempenho da linha 4000 para a linha 3000 com um aumento de consumo de 25 a 30% no consumo eu não vejo nada de absurdo.
Ainda terão outras opções gastando menos, tanto da nvidia, como da concorrência.
Enviado de meu M2012K11AG usando o Tapatalk
Se tivesse alternativa, vc pode ter certeza que eles adorariam vender uma placa com máximo de eficiência por cima. Essa lógica ai tá tipo aquela do "patrão malvadão" que brasileiro tanta ama. O mundo não funciona assim não.Há alternativa, mas isso custa dinheiro, então eles empurram o preju para o trouxa...digo, consumidor inteligente.
kkkkkkSe tivesse alternativa, vc pode ter certeza que eles adorariam vender uma placa com máximo de eficiência por cima. Essa lógica ai tá tipo aquela do "patrão malvadão" que brasileiro tanta ama. O mundo não funciona assim não.
Mas vai aparecer uma geração que consome menos. É sempre assim com toda microarquitetura. Ela satura e vc precisa repensar, replanejar ou só seguir o planejamento que já estava inclusive esperando que neste ponto chegasse antes de partir para outro ou focar em outro. Ou enquanto você está investindo em pesquisa e desenvolvimento dessa outra tecnologia, dai você precisa continuar saturando a atual. Super normal, nada demais e principalmente nesse campo: nada novo.kkkkkk
Funciona sim, mas vc que não quer ver, se aparecer uma geração que consome menos, vc vai me dizer o que?
As empresas pintam e bordam com os consumidores, por que eles sabem que mesmo não agradando todo mundo, ainda vai vender, simples assim.Mas vai aparecer uma geração que consome menos. É sempre assim com toda microarquitetura. Ela satura e vc precisa repensar, replanejar ou só seguir o planejamento que já estava inclusive esperando que neste ponto chegasse antes de partir para outro ou focar em outro. Ou enquanto você está investindo em pesquisa e desenvolvimento dessa outra tecnologia, dai você precisa continuar saturando a atual. Super normal, nada demais e principalmente nesse campo: nada novo.
Não sabemos. O que sabemos é que a nVidia não tem malucos lá dentro. Nem na AMD. Nem na Intel. Nem em nenhuma empresa desse tamanho, que daria tudo possível pra ventar o produto que mais agrega valor e necessidade dos consumidores. Mas o possível não é sempre o melhor.
Eu queria entender o que vcs realmente pensam sobre isso. QUe a nVidia, AMD ou qlq outra faz de sacanagem? Que ela faz pra agradar fabricante de fonte? Trocando com isso ser uma empresa que não vende o que tem de melhor? "Ah, perai, vou aumentar o consumo disso aqui ou não vou fazer questão de melhorar, mesmo tendo muita competição, pra agradar uns parceiros aqui e desagradar os clientes. Afinal quem liga pra clientes, né? "
Gente, por favor. Vamos acordar para o mundo real onde empresas precisam ser extremamente competitivas nesse mercado, no mundo do marketing, onde tudo que vc tem é o marketing e ser bem falado pelos consumidores, agradá-lo ao máximo possível. Não tem monopólio absoluto. Vcs pensam como se houvesse um.
Então o negócio dos gananciosos é ir agradando metade dos consumidores aqui, outra metade no lançamento futuro e assim vai?e claro que a nvidia vai querer resgatar esses que torceram o nariz lançando uma geração mais eficiente depois.
Metade é vc sendo tendencioso, deve ser uma pequena fatia que reclama disso, se não for nicho.Então o negócio dos gananciosos é ir agradando metade dos consumidores aqui, outra metade no lançamento futuro e assim vai?
Entendi. É, temos uma visão bem distinta de como grandes empresas e negócios bem sucedidos funcionam na era do marketing.Metade é vc sendo tendencioso, deve ser uma pequena fatia que reclama disso, se não for nicho.
Mas vai aparecer uma geração que consome menos. É sempre assim com toda microarquitetura. Ela satura e vc precisa repensar, replanejar ou só seguir o planejamento que já estava inclusive esperando que neste ponto chegasse antes de partir para outro ou focar em outro. Ou enquanto você está investindo em pesquisa e desenvolvimento dessa outra tecnologia, dai você precisa continuar saturando a atual. Super normal, nada demais e principalmente nesse campo: nada novo.
Não sabemos. O que sabemos é que a nVidia não tem malucos lá dentro. Nem na AMD. Nem na Intel. Nem em nenhuma empresa desse tamanho, que daria tudo possível pra ventar o produto que mais agrega valor e necessidade dos consumidores. Mas o possível não é sempre o melhor.
Eu queria entender o que vcs realmente pensam sobre isso. QUe a nVidia, AMD ou qlq outra faz de sacanagem? Que ela faz pra agradar fabricante de fonte? Trocando com isso ser uma empresa que não vende o que tem de melhor? "Ah, perai, vou aumentar o consumo disso aqui ou não vou fazer questão de melhorar, mesmo tendo muita competição, pra agradar uns parceiros aqui e desagradar os clientes. Afinal quem liga pra clientes, né? "
Gente, por favor. Vamos acordar para o mundo real onde empresas precisam ser extremamente competitivas nesse mercado, no mundo do marketing, onde tudo que vc tem é o marketing e ser bem falado pelos consumidores, agradá-lo ao máximo possível. Não tem monopólio absoluto. Vcs pensam como se houvesse um.
Preço das placas baixando e minha mão coçando pra trocar minha GTX 1070, me ajudem, troco agora por uma 3070 ou espero a 4070?
Duvida cruel.
Enviado de meu SM-M625F usando o Tapatalk
os rumores da série 40 são fortes, de que serão placas bem mais potentes que a série 30, e tbm consumindo mt mais
pode ser que compre agora e fim de ano venha a 4070 com toda essa potência prometida
se não se importa em manter sempre com o último lançamento, manda ver
não é como se a 3070 fosse ficar fraca com o lançamento das novas
Pois é, fico com receio da 4070 ser uma nova "pascal", não tenho certeza se a 3070 aguenta até o final da geração com tudo no ultra, RT, 60 fps (mesmo no Full HD), por conta dos 8gb de vram, o que pesa também é que não tem nenhum jogo que me interesse que vai ser lançado esse ano.
Particularmente eu não aconselharia ir de 3070
Essa não aguenta até o final da gen.
8g muito pouco e desempenho "fraco" em 4k.
1080p segura, mas é aquilo né; Depois que você usa um DSR ou um multiplicador de resolução interno de um jogo, nunca mais quer voltar para 1080p (Warzone que o diga)
Fora que Ray Tracing a 3070 não segura messmo.
Tipo, eu coloquei uns posts atrás uma dúvida parecida, mas com a 3080. Resolvi cancelar a compra que fiz e aguardar.
Mas tudo o que foi relatado recentemente sobre isso está claramente apontando na direção certa: Ada Lovelace está se tornando um grande soluço, com os valores de consumo de energia aumentando claramente em todo o portfólio.Eu não me importo com a data de lançamento real. Estou apenas curioso sobre o desempenho da RTX 4060 , que consome mais energia que a RTX 3070.
Fonte: Kopite7kimi @ Twitter em 5 de junho de 2022
consumo real | Kepler | Maxwell | Pascal | Turing | Ampere | Ada Lovelace |
---|---|---|---|---|---|---|
Gfx-Generation | Série GeForce 600, 2012 | Série GeForce 900, 2014 | Série GeForce 10, 2016 | Série GeForce 20, 2018 | Série GeForce 30, 2020 | Série GeForce 40, 2022 |
GeForce xx60 | 113W | 109W | 117 W | 160 W | 172 W | cerca de 230-250 W |
GeForce xx70 | 144W | 161W | 147 W | 185 W | 221W | cerca de 300W |
GeForce xx80 | 169W | 174 W | 176 W | 228 W | 325 W | cerca de 400-450W |
GF xx80Ti/xx90 | 206 W (Titã) | 236 W (980 Ti) | 239W (1080Ti) | 272 W (2080 Ti) | 359W (3090) | cerca de 450-550W |
maior modelo | 245 W (780 Ti) | 240 W (Titan X) | 251W (TitanXp) | ~ 290W (TitanRTX) | 462 W (3090 Ti) | cerca de 600-800W |
Chip-Base | Hardware | Liberar | |
---|---|---|---|
GeForce RTX 4090 | AD102-300 | 126 SM @ 384 bits, 24 GB GDDR6X | agosto-outubro |
GeForce RTX 4080 | a) AD102 b) AD103 (ou primeiro AD102, depois AD103) | a) ca. 90-100 SM @ 320 bits e 20 GB ou 384 bits e 12 GB GDDR6X b) 80-84 SM @ 256 bits, 16 GB GDDR6X | setembro-novembro |
GeForce RTX 4070 | AD104-400 | 58-60 SM @ 192 bits, 12 GB GDDR6 | outubro-dezembro |
GeForce RTX 4060 | a) AD104 b) AD106 | a) ca. 40-46 SM @ 128 bits e 8 GB ou 192 bits e 12 GB GDDR6 b) 34-36 SM @ 128 bits, 8 GB GDDR6 | 1º trimestre de 2023 |
Informações sobre hardware futuro com base em rumores e suposições |
com essa potência toda e um node tão avançado, é possível também que cada segmento (xx60, 70, 80) da Lovelace tenham, também, preços mais elevados do que seus antecessores... confere?
Eu sempre vi a gpu como sendo "o console", então se o console custa 4k, nada mais natural a gpu custar o mesmo.A questão é o preço, eu não sei como é para vocês mas uma RTX 3070 a R$ 4.000,00 não é nem de longe um preço ok para "jogar joguinhos" aqui em casa haha.
Eu imagino que a RTX 4070 não venha nem perto desse valor, suspeito bem acima dos R$ 6.000,00
Eu só troco minha 3070 se tiver com grana sobrando ou ainda num negócio bom ou na pior das hipóteses vá começar a apanhar em 1080p/60.
Olha quem aqui me conhece sabe que troco mto de PC, mas suspeito que essa geração 40XX eu pule.
Qual resolução que você joga? Dependendo nem é questão de grana, mas de não ter a menor necessidade de trocar mesmoA questão é o preço, eu não sei como é para vocês mas uma RTX 3070 a R$ 4.000,00 não é nem de longe um preço ok para "jogar joguinhos" aqui em casa haha.
Eu imagino que a RTX 4070 não venha nem perto desse valor, suspeito bem acima dos R$ 6.000,00
Eu só troco minha 3070 se tiver com grana sobrando ou ainda num negócio bom ou na pior das hipóteses vá começar a apanhar em 1080p/60.
Olha quem aqui me conhece sabe que troco mto de PC, mas suspeito que essa geração 40XX eu pule.
Eu atualmente jogo em 1080p, mas pretendo daqui uns 2 anos mudar para 1440p.Qual resolução que você joga? Dependendo nem é questão de grana, mas de não ter a menor necessidade de trocar mesmo
1080p uma 3070 dura mais 3 anos fácil jogando no alto/ultra com DLSS.Eu atualmente jogo em 1080p, mas pretendo daqui uns 2 anos mudar para 1440p.
Uso a RTX 3070.
Acredito que nessas resoluções, os 8Gb de vram sejam mais do que suficientes.
Já 4k isso pode depender do jogo, mas não acho que todo jogo vá utilizar mais do que os 8gb de vram.