existe t il une equivalence entre le bitrate et la résolution ?
plus précisément, quel bitrate doit on utiliser à 1080p pour avoir une
qualité equivalente à un bitrate pour un 720p de 2500 par exemple ?
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut
multiplier le bitrate par 2...
--
Thierry
Qu'est-ce qu' un embryon ? un foetus ?
(cours a l'intention des étudiants en médecine - site suisse)
http://www.embryology.ch/francais/jfetalperiod/entwicklung01.html#fetal
existe t il une equivalence entre le bitrate et la résolution ? plus précisément, quel bitrate doit on utiliser à 1080p pour avoir une qualité equivalente à un bitrate pour un 720p de 2500 par exemple ?
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut multiplier le bitrate par 2...
on en discutait il y a peu ici même. Il n'y a pas de réponse qui fasse l'unanimité.
A priori, il n'est pas *utile* d'utiliser des bitrate très haut avec une définition basse (25Mo/s avec du dvd, ce serait idiot et même illisible).
1500k est excellent en 720, 6000k en 1080.
étant entendu que le 720 est moins bon que le 1080...
720, c'est 1080 x (2/3)
en pratique, AMHA, le bitrate a plus d'importance que la définition
jdd
Le 30/05/2012 07:22, Thierry M. a écrit :
Bonjour,
existe t il une equivalence entre le bitrate et la résolution ?
plus précisément, quel bitrate doit on utiliser à 1080p pour avoir une
qualité equivalente à un bitrate pour un 720p de 2500 par exemple ?
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut
multiplier le bitrate par 2...
on en discutait il y a peu ici même. Il n'y a pas de réponse qui fasse
l'unanimité.
A priori, il n'est pas *utile* d'utiliser des bitrate très haut avec
une définition basse (25Mo/s avec du dvd, ce serait idiot et même
illisible).
1500k est excellent en 720, 6000k en 1080.
étant entendu que le 720 est moins bon que le 1080...
720, c'est 1080 x (2/3)
en pratique, AMHA, le bitrate a plus d'importance que la définition
existe t il une equivalence entre le bitrate et la résolution ? plus précisément, quel bitrate doit on utiliser à 1080p pour avoir une qualité equivalente à un bitrate pour un 720p de 2500 par exemple ?
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut multiplier le bitrate par 2...
on en discutait il y a peu ici même. Il n'y a pas de réponse qui fasse l'unanimité.
A priori, il n'est pas *utile* d'utiliser des bitrate très haut avec une définition basse (25Mo/s avec du dvd, ce serait idiot et même illisible).
1500k est excellent en 720, 6000k en 1080.
étant entendu que le 720 est moins bon que le 1080...
720, c'est 1080 x (2/3)
en pratique, AMHA, le bitrate a plus d'importance que la définition
jdd
Thierry M.
jean-daniel dodin a pensé très fort :
1500k est excellent en 720, 6000k en 1080.
ben suite aux 2000/1 passe (en 720) que conseillait alf, j'ai fait monsieur plus a 2500 et je trouve ça très bien pour ma série qui était en 1080 : à vrai dire je ne vois pas non plus trop la différence en 1080 et 720 sur ma lg 55' ... sauf pour la 3D SBS ou en 1080, on a 2 images de 960*1080, j'aimerai autant éviter le 640*720... parceque la on est presque en qualité dvd, que je trouve ... pas de qualité justement, ya des bornes aux limites :o)
mais ici tu parles de passer du simple au quadruple alors qu'entre 1280*720 et 1920*1080, le rapport en nombre de pixels est grosso merdo de 2 (2.25) je pensais à 4000 ... (?) (pour du 1080), voir moins...
bref : pourquoi conseilles tu si peu en 720 et si tant en 1080 ? (si peu si tant, de mon avis, j'aurai dit 2000/4000 et non 1500/6000)
?
-- Thierry Lecteur de news de course: http://www.mesnews.net
jean-daniel dodin a pensé très fort :
1500k est excellent en 720, 6000k en 1080.
ben suite aux 2000/1 passe (en 720) que conseillait alf, j'ai fait
monsieur plus a 2500 et je trouve ça très bien pour ma série qui était
en 1080 : à vrai dire je ne vois pas non plus trop la différence en
1080 et 720 sur ma lg 55' ... sauf pour la 3D SBS ou en 1080, on a 2
images de 960*1080, j'aimerai autant éviter le 640*720... parceque la
on est presque en qualité dvd, que je trouve ... pas de qualité
justement, ya des bornes aux limites :o)
mais ici tu parles de passer du simple au quadruple alors qu'entre
1280*720 et 1920*1080, le rapport en nombre de pixels est grosso merdo
de 2 (2.25)
je pensais à 4000 ... (?) (pour du 1080), voir moins...
bref : pourquoi conseilles tu si peu en 720 et si tant en 1080 ?
(si peu si tant, de mon avis, j'aurai dit 2000/4000 et non 1500/6000)
?
--
Thierry
Lecteur de news de course:
http://www.mesnews.net
ben suite aux 2000/1 passe (en 720) que conseillait alf, j'ai fait monsieur plus a 2500 et je trouve ça très bien pour ma série qui était en 1080 : à vrai dire je ne vois pas non plus trop la différence en 1080 et 720 sur ma lg 55' ... sauf pour la 3D SBS ou en 1080, on a 2 images de 960*1080, j'aimerai autant éviter le 640*720... parceque la on est presque en qualité dvd, que je trouve ... pas de qualité justement, ya des bornes aux limites :o)
mais ici tu parles de passer du simple au quadruple alors qu'entre 1280*720 et 1920*1080, le rapport en nombre de pixels est grosso merdo de 2 (2.25) je pensais à 4000 ... (?) (pour du 1080), voir moins...
bref : pourquoi conseilles tu si peu en 720 et si tant en 1080 ? (si peu si tant, de mon avis, j'aurai dit 2000/4000 et non 1500/6000)
?
-- Thierry Lecteur de news de course: http://www.mesnews.net
jean-daniel dodin
Le 30/05/2012 10:25, Thierry M. a écrit :
bref : pourquoi conseilles tu si peu en 720 et si tant en 1080 ? (si peu si tant, de mon avis, j'aurai dit 2000/4000 et non 1500/6000)
ca dépends de l'usage.
Pour passer sur une grosse télé, c'est dommage de se priver de la qualité du 1080/6000, le 720 je l'utilise plutôt sur le net, il est vu en plein écran sur un PC, assez confortablement, là ou le 1080 sature le débit.
le codec semble aussi avoir un impact sur la qualité. Mes essais en webm donnent de très bons résultats, mais il est très difficile de se faire une idée objective.
Il faudrait que je trouve un moyen de tourner une scène très difficile, tien je vais ouvrir un fil sur le sujet :-)
jdd
Le 30/05/2012 10:25, Thierry M. a écrit :
bref : pourquoi conseilles tu si peu en 720 et si tant en 1080 ?
(si peu si tant, de mon avis, j'aurai dit 2000/4000 et non 1500/6000)
ca dépends de l'usage.
Pour passer sur une grosse télé, c'est dommage de se priver de la
qualité du 1080/6000, le 720 je l'utilise plutôt sur le net, il est vu
en plein écran sur un PC, assez confortablement, là ou le 1080 sature
le débit.
le codec semble aussi avoir un impact sur la qualité. Mes essais en
webm donnent de très bons résultats, mais il est très difficile de se
faire une idée objective.
Il faudrait que je trouve un moyen de tourner une scène très
difficile, tien je vais ouvrir un fil sur le sujet :-)
bref : pourquoi conseilles tu si peu en 720 et si tant en 1080 ? (si peu si tant, de mon avis, j'aurai dit 2000/4000 et non 1500/6000)
ca dépends de l'usage.
Pour passer sur une grosse télé, c'est dommage de se priver de la qualité du 1080/6000, le 720 je l'utilise plutôt sur le net, il est vu en plein écran sur un PC, assez confortablement, là ou le 1080 sature le débit.
le codec semble aussi avoir un impact sur la qualité. Mes essais en webm donnent de très bons résultats, mais il est très difficile de se faire une idée objective.
Il faudrait que je trouve un moyen de tourner une scène très difficile, tien je vais ouvrir un fil sur le sujet :-)
jdd
pehache
On 30 mai, 07:22, Thierry M. wrote:
Bonjour,
existe t il une equivalence entre le bitrate et la résolution ? plus précisément, quel bitrate doit on utiliser à 1080p pour avoir une qualité equivalente à un bitrate pour un 720p de 2500 par exemple ?
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut multiplier le bitrate par 2...
Si ton critère c'est la qualité de la video observée à 100%, la réponse est : si (2 fois plus de pixels --> bitrate x2)
On 30 mai, 07:22, Thierry M. <thry.NOSPAM.mar...@wanadoo.fr.INVALID>
wrote:
Bonjour,
existe t il une equivalence entre le bitrate et la résolution ?
plus précisément, quel bitrate doit on utiliser à 1080p pour avoir une
qualité equivalente à un bitrate pour un 720p de 2500 par exemple ?
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut
multiplier le bitrate par 2...
Si ton critère c'est la qualité de la video observée à 100%, la
réponse est : si (2 fois plus de pixels --> bitrate x2)
existe t il une equivalence entre le bitrate et la résolution ? plus précisément, quel bitrate doit on utiliser à 1080p pour avoir une qualité equivalente à un bitrate pour un 720p de 2500 par exemple ?
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut multiplier le bitrate par 2...
Si ton critère c'est la qualité de la video observée à 100%, la réponse est : si (2 fois plus de pixels --> bitrate x2)
jean-daniel dodin
Le 30/05/2012 11:44, pehache a écrit :
Si ton critère c'est la qualité de la video observée à 100%, la réponse est : si (2 fois plus de pixels --> bitrate x2)
la question est sans doute en réalité un peu différente. La qualité en sortie dépends-t-elle de la définition à bitrate identique? et la taille du fichier?
comme tout ca dépends du taux de compression et donc du contenu du film, un support de test fiable est utile
j'ai déjà mis en ligne quelques fichiers tests
http://dodin.org/modeles-video/
mais pris au hasard. Je peux mettre en ligne des fichiers plus significatifs si vous me dites où les trouver ou comment les tourner
jdd
Le 30/05/2012 11:44, pehache a écrit :
Si ton critère c'est la qualité de la video observée à 100%, la
réponse est : si (2 fois plus de pixels --> bitrate x2)
la question est sans doute en réalité un peu différente. La qualité en
sortie dépends-t-elle de la définition à bitrate identique? et la
taille du fichier?
comme tout ca dépends du taux de compression et donc du contenu du
film, un support de test fiable est utile
j'ai déjà mis en ligne quelques fichiers tests
http://dodin.org/modeles-video/
mais pris au hasard. Je peux mettre en ligne des fichiers plus
significatifs si vous me dites où les trouver ou comment les tourner
Si ton critère c'est la qualité de la video observée à 100%, la réponse est : si (2 fois plus de pixels --> bitrate x2)
la question est sans doute en réalité un peu différente. La qualité en sortie dépends-t-elle de la définition à bitrate identique? et la taille du fichier?
comme tout ca dépends du taux de compression et donc du contenu du film, un support de test fiable est utile
j'ai déjà mis en ligne quelques fichiers tests
http://dodin.org/modeles-video/
mais pris au hasard. Je peux mettre en ligne des fichiers plus significatifs si vous me dites où les trouver ou comment les tourner
jdd
Alf92
"Thierry M." a écrit
existe t il une equivalence entre le bitrate et la résolution ? plus précisément, quel bitrate doit on utiliser à 1080p pour avoir une qualité equivalente à un bitrate pour un 720p de 2500 par exemple ?
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut multiplier le bitrate par 2...
c'est quasiment la règle.
"Thierry M." <thry.NOSPAM.martin@wanadoo.fr.INVALID> a écrit
existe t il une equivalence entre le bitrate et la résolution ?
plus précisément, quel bitrate doit on utiliser à 1080p pour avoir une qualité
equivalente à un bitrate pour un 720p de 2500 par exemple ?
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut
multiplier le bitrate par 2...
existe t il une equivalence entre le bitrate et la résolution ? plus précisément, quel bitrate doit on utiliser à 1080p pour avoir une qualité equivalente à un bitrate pour un 720p de 2500 par exemple ?
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut multiplier le bitrate par 2...
c'est quasiment la règle.
Alf92
"jean-daniel dodin" a écrit
existe t il une equivalence entre le bitrate et la résolution ? plus précisément, quel bitrate doit on utiliser à 1080p pour avoir une qualité equivalente à un bitrate pour un 720p de 2500 par exemple ?
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut multiplier le bitrate par 2...
on en discutait il y a peu ici même. Il n'y a pas de réponse qui fasse l'unanimité.
A priori, il n'est pas *utile* d'utiliser des bitrate très haut avec une définition basse
c'est une évidence...
(25Mo/s avec du dvd, ce serait idiot et même illisible).
1500k est excellent en 720, 6000k en 1080.
si tu ne spécifie pas le codec ça ne veut rien dire.
étant entendu que le 720 est moins bon que le 1080...
720, c'est 1080 x (2/3)
en nombre de pixels ça donne approximativement x1/2.
en pratique, AMHA, le bitrate a plus d'importance que la définition
tout dépend du codec. il semble que le H264 s'accommode très bien d'une définition élevée et d'un bitrate faible, comme s'il réduisait la définition automatiquement quand la scène devient complexe (bcp de détails, bcp de mouvements).
"jean-daniel dodin" <jdd@dodin.org> a écrit
existe t il une equivalence entre le bitrate et la résolution ?
plus précisément, quel bitrate doit on utiliser à 1080p pour avoir une
qualité equivalente à un bitrate pour un 720p de 2500 par exemple ?
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut
multiplier le bitrate par 2...
on en discutait il y a peu ici même. Il n'y a pas de réponse qui fasse
l'unanimité.
A priori, il n'est pas *utile* d'utiliser des bitrate très haut avec une
définition basse
c'est une évidence...
(25Mo/s avec du dvd, ce serait idiot et même illisible).
1500k est excellent en 720, 6000k en 1080.
si tu ne spécifie pas le codec ça ne veut rien dire.
étant entendu que le 720 est moins bon que le 1080...
720, c'est 1080 x (2/3)
en nombre de pixels ça donne approximativement x1/2.
en pratique, AMHA, le bitrate a plus d'importance que la définition
tout dépend du codec.
il semble que le H264 s'accommode très bien d'une définition élevée et d'un
bitrate faible, comme s'il réduisait la définition automatiquement quand la
scène devient complexe (bcp de détails, bcp de mouvements).
existe t il une equivalence entre le bitrate et la résolution ? plus précisément, quel bitrate doit on utiliser à 1080p pour avoir une qualité equivalente à un bitrate pour un 720p de 2500 par exemple ?
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut multiplier le bitrate par 2...
on en discutait il y a peu ici même. Il n'y a pas de réponse qui fasse l'unanimité.
A priori, il n'est pas *utile* d'utiliser des bitrate très haut avec une définition basse
c'est une évidence...
(25Mo/s avec du dvd, ce serait idiot et même illisible).
1500k est excellent en 720, 6000k en 1080.
si tu ne spécifie pas le codec ça ne veut rien dire.
étant entendu que le 720 est moins bon que le 1080...
720, c'est 1080 x (2/3)
en nombre de pixels ça donne approximativement x1/2.
en pratique, AMHA, le bitrate a plus d'importance que la définition
tout dépend du codec. il semble que le H264 s'accommode très bien d'une définition élevée et d'un bitrate faible, comme s'il réduisait la définition automatiquement quand la scène devient complexe (bcp de détails, bcp de mouvements).
Alf92
"jean-daniel dodin" a écrit
ca dépends de l'usage.
Pour passer sur une grosse télé, c'est dommage de se priver de la qualité du 1080/6000, le 720 je l'utilise plutôt sur le net, il est vu en plein écran sur un PC, assez confortablement, là ou le 1080 sature le débit.
il faut avoir le nez sur la TV pour voir la différence entre 1080 et 720. je dirais donc qu'il est plus intéressant (logique ?) de choisir le 720.
le codec semble aussi avoir un impact sur la qualité. Mes essais en webm donnent de très bons résultats, mais il est très difficile de se faire une idée objective.
mieux que le H264 ?
"jean-daniel dodin" <jdd@dodin.org> a écrit
ca dépends de l'usage.
Pour passer sur une grosse télé, c'est dommage de se priver de la qualité du
1080/6000, le 720 je l'utilise plutôt sur le net, il est vu en plein écran sur
un PC, assez confortablement, là ou le 1080 sature le débit.
il faut avoir le nez sur la TV pour voir la différence entre 1080 et 720.
je dirais donc qu'il est plus intéressant (logique ?) de choisir le 720.
le codec semble aussi avoir un impact sur la qualité. Mes essais en webm
donnent de très bons résultats, mais il est très difficile de se faire une
idée objective.
Pour passer sur une grosse télé, c'est dommage de se priver de la qualité du 1080/6000, le 720 je l'utilise plutôt sur le net, il est vu en plein écran sur un PC, assez confortablement, là ou le 1080 sature le débit.
il faut avoir le nez sur la TV pour voir la différence entre 1080 et 720. je dirais donc qu'il est plus intéressant (logique ?) de choisir le 720.
le codec semble aussi avoir un impact sur la qualité. Mes essais en webm donnent de très bons résultats, mais il est très difficile de se faire une idée objective.
mieux que le H264 ?
Alf92
"jean-daniel dodin" a écrit
la question est sans doute en réalité un peu différente. La qualité en sortie dépends-t-elle de la définition à bitrate identique?
la réponse est : il faut trouver le bon équilibre entre bitrate et définition. si je prends un bitrate donné pour une scène donnée, si l'image est trop petite, elle sera pixélisée et manquera de détail, et si l'image est trop grande elle fera des macroblocs et manquera aussi de détail. c'est une question de compromis.
quant au choix du bitrate c'est un question de niveau d'exigence. lorsque je réencode un reportage TV que je veux conserver c'est du 480x272 en H264 à 300kbps. c'est équivalent à de la qualité DivX standard.
et la taille du fichier?
la taille du fichier est fonction proportionnelle du bitrate. donc...
comme tout ca dépends du taux de compression et donc du contenu du film, un support de test fiable est utile
en X264, le codec semble s'adapter à la scène, comme me l'a fait remarqué Pehache il y a qques jours.
"jean-daniel dodin" <jdd@dodin.org> a écrit
la question est sans doute en réalité un peu différente. La qualité en sortie
dépends-t-elle de la définition à bitrate identique?
la réponse est : il faut trouver le bon équilibre entre bitrate et définition.
si je prends un bitrate donné pour une scène donnée, si l'image est trop petite,
elle sera pixélisée et manquera de détail, et si l'image est trop grande elle
fera des macroblocs et manquera aussi de détail.
c'est une question de compromis.
quant au choix du bitrate c'est un question de niveau d'exigence.
lorsque je réencode un reportage TV que je veux conserver c'est du 480x272 en
H264 à 300kbps.
c'est équivalent à de la qualité DivX standard.
et la taille du fichier?
la taille du fichier est fonction proportionnelle du bitrate. donc...
comme tout ca dépends du taux de compression et donc du contenu du film, un
support de test fiable est utile
en X264, le codec semble s'adapter à la scène, comme me l'a fait remarqué
Pehache il y a qques jours.
la question est sans doute en réalité un peu différente. La qualité en sortie dépends-t-elle de la définition à bitrate identique?
la réponse est : il faut trouver le bon équilibre entre bitrate et définition. si je prends un bitrate donné pour une scène donnée, si l'image est trop petite, elle sera pixélisée et manquera de détail, et si l'image est trop grande elle fera des macroblocs et manquera aussi de détail. c'est une question de compromis.
quant au choix du bitrate c'est un question de niveau d'exigence. lorsque je réencode un reportage TV que je veux conserver c'est du 480x272 en H264 à 300kbps. c'est équivalent à de la qualité DivX standard.
et la taille du fichier?
la taille du fichier est fonction proportionnelle du bitrate. donc...
comme tout ca dépends du taux de compression et donc du contenu du film, un support de test fiable est utile
en X264, le codec semble s'adapter à la scène, comme me l'a fait remarqué Pehache il y a qques jours.
Thierry M.
Alf92 a pensé très fort :
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut multiplier le bitrate par 2...
c'est quasiment la règle.
bon donc, 2000-2500 en 720p et 4000-5000 en 1080p
et au lieu de se casser la tête, a relire le post de gérard guenin, Message-ID: ne vaut il pas mieux laisser faire au réglage 23 (celui par défaut la plupart du temps) en qualité constante, plutôt que bitrate constant, ce qui donne justement, une moyenne de 2500 en 720p... est ce qu'à ce moment la, on se retrouve en 5000 moyen à 1080 etc donc on n'a plus a se soucier de la définition : on laisse faire ?
ça m'irait bien, ça... clic :o)
mais pas avec M4ng du coup, qui ne permet que de régler le bitrate (ou j'ai mal cherché).
-- Thierry Photos de foetus entre 8 et 12 semaines: http://ardf.free.fr/foetus
Alf92 a pensé très fort :
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut
multiplier le bitrate par 2...
c'est quasiment la règle.
bon donc, 2000-2500 en 720p et 4000-5000 en 1080p
et au lieu de se casser la tête, a relire le post de gérard guenin,
Message-ID: <eja0r79tj856u8io934nfc9vcqsm1ipba3@4ax.com>
ne vaut il pas mieux laisser faire au réglage 23 (celui par défaut la
plupart du temps) en qualité constante, plutôt que bitrate constant, ce
qui donne justement, une moyenne de 2500 en 720p...
est ce qu'à ce moment la, on se retrouve en 5000 moyen à 1080 etc donc
on n'a plus a se soucier de la définition : on laisse faire ?
ça m'irait bien, ça... clic :o)
mais pas avec M4ng du coup, qui ne permet que de régler le bitrate (ou
j'ai mal cherché).
--
Thierry
Photos de foetus entre 8 et 12 semaines:
http://ardf.free.fr/foetus
je suppose que ce n'est pas parcequ'il ya 2x plus de pixels qu'il faut multiplier le bitrate par 2...
c'est quasiment la règle.
bon donc, 2000-2500 en 720p et 4000-5000 en 1080p
et au lieu de se casser la tête, a relire le post de gérard guenin, Message-ID: ne vaut il pas mieux laisser faire au réglage 23 (celui par défaut la plupart du temps) en qualité constante, plutôt que bitrate constant, ce qui donne justement, une moyenne de 2500 en 720p... est ce qu'à ce moment la, on se retrouve en 5000 moyen à 1080 etc donc on n'a plus a se soucier de la définition : on laisse faire ?
ça m'irait bien, ça... clic :o)
mais pas avec M4ng du coup, qui ne permet que de régler le bitrate (ou j'ai mal cherché).
-- Thierry Photos de foetus entre 8 et 12 semaines: http://ardf.free.fr/foetus