Samsung Exynos 2200 : 17% de performances GPU en plus mais seulement 5% en CPU

Le par Christian D.  |  7 commentaire(s) | Source : Videocardz
samsung-exynos-2200

Le SoC Exynos 2200 des smartphones Galaxy S22 profite d'un CPU avec coeurs ARMv9 gravés en 4 nm et d'une partie graphique signée AMD. Comment se comporte-t-il face à l'Exynos 2100 ?

Il y a eu de grands espoirs autour du SoC Exynos 2200 équipant la nouvelle génération de smartphones de référence Galaxy S22 de Samsung. D'un côté, la partie CPU profite de coeurs ARMv9 avec gravure en 4 nm, de l'autre, la partie GPU abandonne les ARM Mali pour une solution spécifique mRDNA 2 fournie par AMD et baptisée Xclipse 920.

Cette configuration doit en principe faire oublier le décalage entre solutions Snapdragon et Exynos observé avec les différentes variantes des smartphones de Samsung et donner plus d'attrait aux solutions Exynos.

exynos-2200

La firme coréenne n'a pas donné énormément de détails sur la configuration de son SoC Exynos 2200. On connaît désormais les cadences CPU (via ComputerBase) : 2,8 GHz pour le coeur ARM Cortex-X2, 2,5 GHz pour les trois coeurs ARM Cortex-A710 et  1,8 GHz pour les quatre coeurs ARM Cortex-A510.

Le puissant coeur X2 serait donc cadencé un peu en-dessous de celui du Snapdragon 8 Gen 1 (2,995 GHz), les autres valeurs étant similaires. La fréquence du GPU reste inconnue mais dépasserait le GHz, contre 818 MHz pour l'Adreno 730 chez Qualcomm.

Avec cette configuration, quelles sont les performances attendues ? Sur Twitter, @TechAltar évoque les marges de progression suivantes, comparées à l'Exynos 2100 :

  • CPU : +5%
  • GPU : +17%
  • NPU : +115%

Si elles ne sont pas forcément à prendre au pied de la lettre, les informations concernant leur obtention n'étant pas précisées, elles interrogent tout de même et semblent confirmer que le SoC offre des améliorations modérées malgré le passage au 4 nm, à une nouvelle architecture ARMv9 et à un nouveau type de GPU qui certes devraient pouvoir assurer des fonctions avancées comme le ray tracing et le VRS (Variable Rate Shading).

La partie intelligence artificielle semble avoir connu une belle progression mais là encore il est difficile de connaître les tenants et aboutissants de ce résultat. Il va donc falloir attendre les premiers tests et comparatifs.

  • Partager ce contenu :
Cette page peut contenir des liens affiliés. Si vous achetez un produit depuis ces liens, le site marchand nous reversera une commission sans que cela n'impacte en rien le montant de votre achat. En savoir plus.
Complément d'information

Vos commentaires

Trier par : date / pertinence
lihire04 away Absent Vétéran avatar 1193 points
Le #2156667
mais du coup c'est quoi la différence entrre le 21 ultra et le s22 ultra ?
les capteurs photos sont les mêmes, le soc est quasiment le meme niveau perf....

qu'es ce qui justifie 1259€ dans ce smartphone avec une r&d n'a rien produit de neuf cette année ?
norwy online Connecté Vétéran avatar 2099 points
Le #2156678
lihire04 a écrit :

mais du coup c'est quoi la différence entrre le 21 ultra et le s22 ultra ?
les capteurs photos sont les mêmes, le soc est quasiment le meme niveau perf....

qu'es ce qui justifie 1259€ dans ce smartphone avec une r&d n'a rien produit de neuf cette année ?


Tu oublies la gestion du stylet qui nécessite plus de puissance et de précision. Et puis maintenant il est inclus dans le smartphone.

Tout cela a un prix
Le #2156698
C est hyper important de pouvoir gerer le ray tracing sur telephone
Plumplum offline Hors ligne Héroïque avatar 555 points
Le #2156716
Même en considérant que le Ray-tracing percera dans les jeux (Tencent a prévu des titres), qu'apporte réellement RDNA2?

Comment est gérer matériellement le Ray-tracing?

D'une part par l'accélération des rayons par les RT-Cores. Sauf que les RT-cores, c'est sur l'architecture Turing de nVidia. Sur RDNA2, il n'y en a pas.

D'autre part par des fonctions de réduction de bruit (denoising) et de mise à l'échelle (supersampling) traitées par les Tensor-cores, autrement dit, l'IA.
Ça, il y en a sur RDNA2.

Sauf que de l'IA, il y en a aussi sur les puces Qualcomm et Mediatek. Déjà en partie traitée par le GPU, mais aussi par les DSP.
Un des points que ces 2 là ont fortement amélioré sur leurs dernières puces, c'est justement l'IA!

Ce que Samsung va faire matériellement avec son GPU sur Exynos, Mediatek le fait déjà sur Dimensity 1200 avec le GPU et l'APU. Le SDK existe depuis plusieurs mois, il est compatible Vulkan.
Il y a fort à parier que Qualcomm prendra la même voie.

Sur PC, il y a un intérêt à ce que l'IA soit traitée par le GPU : elle va profiter d'une bande passante mémoire beaucoup plus importante (GDDR6).
Mais sur mobile, quel est l'intérêt dans la mesure où tout le soc partage exactement la mémoire?

En gros, matériellement, est-ce qu'Exynos 2200 a réellement un avantage sur les autres en terme de Ray-tracing. Sur les bases de cet argumentaire, personnellement je pense que non...
norwy online Connecté Vétéran avatar 2099 points
Le #2156718
Plumplum a écrit :

Même en considérant que le Ray-tracing percera dans les jeux (Tencent a prévu des titres), qu'apporte réellement RDNA2?

Comment est gérer matériellement le Ray-tracing?

D'une part par l'accélération des rayons par les RT-Cores. Sauf que les RT-cores, c'est sur l'architecture Turing de nVidia. Sur RDNA2, il n'y en a pas.

D'autre part par des fonctions de réduction de bruit (denoising) et de mise à l'échelle (supersampling) traitées par les Tensor-cores, autrement dit, l'IA.
Ça, il y en a sur RDNA2.

Sauf que de l'IA, il y en a aussi sur les puces Qualcomm et Mediatek. Déjà en partie traitée par le GPU, mais aussi par les DSP.
Un des points que ces 2 là ont fortement amélioré sur leurs dernières puces, c'est justement l'IA!

Ce que Samsung va faire matériellement avec son GPU sur Exynos, Mediatek le fait déjà sur Dimensity 1200 avec le GPU et l'APU. Le SDK existe depuis plusieurs mois, il est compatible Vulkan.
Il y a fort à parier que Qualcomm prendra la même voie.

Sur PC, il y a un intérêt à ce que l'IA soit traitée par le GPU : elle va profiter d'une bande passante mémoire beaucoup plus importante (GDDR6).
Mais sur mobile, quel est l'intérêt dans la mesure où tout le soc partage exactement la mémoire?

En gros, matériellement, est-ce qu'Exynos 2200 a réellement un avantage sur les autres en terme de Ray-tracing. Sur les bases de cet argumentaire, personnellement je pense que non...


Il me semble que le pré-requis du FSR était l'architecture RDNA justement...
Plumplum offline Hors ligne Héroïque avatar 555 points
Le #2156721
norwy a écrit :

Plumplum a écrit :

Même en considérant que le Ray-tracing percera dans les jeux (Tencent a prévu des titres), qu'apporte réellement RDNA2?

Comment est gérer matériellement le Ray-tracing?

D'une part par l'accélération des rayons par les RT-Cores. Sauf que les RT-cores, c'est sur l'architecture Turing de nVidia. Sur RDNA2, il n'y en a pas.

D'autre part par des fonctions de réduction de bruit (denoising) et de mise à l'échelle (supersampling) traitées par les Tensor-cores, autrement dit, l'IA.
Ça, il y en a sur RDNA2.

Sauf que de l'IA, il y en a aussi sur les puces Qualcomm et Mediatek. Déjà en partie traitée par le GPU, mais aussi par les DSP.
Un des points que ces 2 là ont fortement amélioré sur leurs dernières puces, c'est justement l'IA!

Ce que Samsung va faire matériellement avec son GPU sur Exynos, Mediatek le fait déjà sur Dimensity 1200 avec le GPU et l'APU. Le SDK existe depuis plusieurs mois, il est compatible Vulkan.
Il y a fort à parier que Qualcomm prendra la même voie.

Sur PC, il y a un intérêt à ce que l'IA soit traitée par le GPU : elle va profiter d'une bande passante mémoire beaucoup plus importante (GDDR6).
Mais sur mobile, quel est l'intérêt dans la mesure où tout le soc partage exactement la mémoire?

En gros, matériellement, est-ce qu'Exynos 2200 a réellement un avantage sur les autres en terme de Ray-tracing. Sur les bases de cet argumentaire, personnellement je pense que non...


Il me semble que le pré-requis du FSR était l'architecture RDNA justement...


FSR, c'est de la mise à l'échelle améliorée par IA... Chez NVIDIA, ça s'appelle DLSS, mais c'est le même principe.

Principe déjà utilisée par les "zooms numériques" de ton appareil photo par exemple.
Matériellement, tu peux donc utiliser des circuits d'IA ou d'ISP pour le faire.
Reste à rendre la partie logicielle compatible avec les API graphiques standards comme Vulkan. Mediatek l'a déjà fait...Qualcomm le fera aussi.

Ça fonctionne même sur un Mali G77 vieux de 2 générations...
Ça a été présenté en octobre 2021 par Mediatek, Tencent et Arm.
jackals01 offline Hors ligne Senior avatar 380 points
Le #2156780
Justement je ne pense pas que fsr se base sur l'IA, contrairement au dlss qui nécessite obligatoirement une solution materiel ( tensor-core) la solution de AMD est purement logiciel est ne fait qui mise à l'échelle spatiale avec filtre de netteté et de contour. D'ailleurs le fsr fonctionne avec énormément de solutions graphiques y compris un bête igpu comme l'uhd 620, il n'y à aucunes reconstructions de données, calcul complexe... D'ailleurs si Qualcomm ou mediatek veulent cette solution ils pourraient très bien étant open source, comme vous l'utilisation du RDNA2 est-elle réellement indispensable ?
icone Suivre les commentaires
Poster un commentaire