La GTX 1630 est une GTX 1050 Ti déguisée, selon les benchmarks

Le par Christian D.  |  1 commentaire(s) | Source : Tom's Hardware
GTX 1630 Colorful

Si elle profite de l'architecture Turing et de codecs plus récents, la carte GTX 1630 est au niveau de l'antique GTX 1050 Ti côté jeux.

La carte graphique Nvidia GeForce GTX 1630 vient d'être lancée pour occuper le segment d'entrée de gamme et est organisée autour d'un GPU TU117-150 avec 4 Go de mémoire GDDR6 et un bus mémoire limité à 64-bit.

Si elle exploite l'architecture Turing, plus récente, il apparaît que ses performances en jeu sont très similaires à celles de la GTX 1050 Ti sous Pascal et datant d'il y a tout de même six ans.

GTX 1630 Colorful

Les benchmarks produits notamment par Inno3D montrent très peu de différences en jeu 1080p sur une douzaine de titres dont Cyberpunk 2077, Call of Duty Cold War, Assassin's Creed Valhalla ou Forza Horizon 4.

Guère plus performante que la GTX 1050 Ti

Dans certains cas, la GTX 1050 Ti obtient même de meilleurs résultats. Il ne faudra donc pas s'attendre à des miracles avec la GTX 1630 et son argument principal reste donc son prix.

GTX 1630 jeu 1080p

Toutefois, avec la chute du marché des cryptomonnaies et la baisse très nette des prix ces derniers mois, les GPU significativement plus performants ne manquent pas sur le marché tandis que la Radeon RX 6400 chez AMD reste une option intéressante sur l'entrée de gamme, en attendant l'arrivée des cartes ARC d'Intel.

Seule consolation, le support des codecs VP8 et H.265 reste un élément différenciant pour l'adoption de la GTX 1630.

  • Partager ce contenu :
Cette page peut contenir des liens affiliés. Si vous achetez un produit depuis ces liens, le site marchand nous reversera une commission sans que cela n'impacte en rien le montant de votre achat. En savoir plus.
Complément d'information

Vos commentaires

Trier par : date / pertinence
Anonyme
Le #2166531
Déjà commenté précédemment, mais moins de chauffe, génération Turing.

Comme quoi il ne faut pas grand chose pour concurrencer Intel dans ce domaine pour l'instant.
icone Suivre les commentaires
Poster un commentaire