C'est ton avis, mais ce n'est pas celui des dev et de la majorité des joueurs. (et heureusement, on serait bloqué à vie avec des graphismes des années 90 omg

)
Bref, penses ce que tu veux mais ne devient jamais dev de jeux-videos, merci !

(quoique si tu fais des bon jeux en pixel art pourquoi pas

)
Hardware.fr a vendu ~2000 2080 Ti en novembre 2018, donc utilisée par personne ... what ? (ils ont vendu plus de 600 2080 Ti Trio X en 4 jours quand elles étaient a 1090€)
De plus ce que tu dis au sujet du 720p vs 1080p c'est strictement incorrecte, c'est prouvé scientifiquement et tout dépend de la taille de l'écran et de la distance yeux-écran

.
Du 720P sur une TV 32", tu ne distinctes plus les pixels à partir de 1,91m. (donc n'importe qui peut les avoir jusqu’à 1,90m)
En 1080P 32", tu ne distinctes plus les pixels à partir de 1,27m.
Donc oui si t'es à 2 mètres et si tu utilises une 32", heureusement que tu ne vois aucune différence, sinon tu aurais un problème aux yeux. (si tu as plus que 32" => tu n'as pas une bonne vue, c'est informatif hein)
En 55", les distances passent a 2,18m en 1080P et ....3,28m en 720P (heureusement que le 720P n'existe plus

)
De plus, tu parles de choses que tu ne connais visiblement pas ..., la tesselation existe depuis 400 ans et est utilisée depuis plus de 20 ans dans les jeux-vidéos ... (sans la tesselation, cyberpunk 2077 ne pourrait même pas exister ...)
Le DLSS est une technique d'upscaling de 150% utilisant l'IA qui permet d'avoir + de fps tout en essayant d'avoir des graphismes aussi propre (voir +) qu'en résolution native ... (DLSS 4K => le jeu est rendu en 1440P et upscalé via l'IA en 4K), et ça fonctionne très bien la plupart du temps ... même sur une RTX 2060 trouvable a 275-300€

Le DLSS est créer grâce à l’intelligence artificielle par Deep Learning sur des machines (DGX-2) qui coute des centaines de millier d'euros ..., le prix de vente d'un seul DGX-2 est de 400000$ htva ...
Bref, aucune technologie n'est foireuse

et aucune ne nécessite un GPU a 1500$ (une 2080 Ti ça se trouve a 1000€ pour info et toute les techno fonctionnent sur une RTX 2060 ... a 300€, certaines fonctionnent même sur les GTX 16XX ...)
Soit, je vois pas ce que vient faire ton post sur cyberpunk 2077. (et j'ai rien compris sur ton pay2win)
Cyberpunk 2077 va être une vitrine technologique pour NVIDIA/AMD et le but au niveau des graphismes c'est d'avoir le + beau jeu possible en 4K avec le matériel actuellement disponible. (que ce soit consoles ou PC)
Sérieux, je cite le directeur financié de CD Projekt ... (qui parlait également de la Series X et PS5)
Pour info il à dit ça il y a 2 semaines :
"Nos jeux ont toujours été en avance sur la technologie. Ils tournent toujours mieux sur des PC puissants. À de nombreux niveaux, nous sommes donc prêts, ou presque prêts, pour des configurations plus puissantes. Du point de vue de la technique, les choses paraissent faisables."
Aucune sortie sur Series X / PS5 de prévue à ce jour et je penses que ce sera juste une mise à jour gratuite/payante et pas une nouvelle release.
J'ai déjà vu Cyberpunk 2077 tourner (et pas en vidéo) donc je sais de quoi je parles : D
Quand the witcher 3 est sortit, il fallait un PC a + de 3000€ pour le faire tourner correctement en vhq en 1440P et a + de 2000€ pour du 1080P
Rien en dessous d'une 980 Ti était capable de le faire tourner a 60fps en 1080P vhq, pour le 1440P vhq, il fallait un SLI de 980 Ti pour avoir un peu + que 60 fps ...
Ce sera pareil pour cyberpunk 2077, surtout que ce genre de jeux fait clairement vendre du nouveau matériel ou des consoles.
Bref, biensur qu'il tournera sur des PC "entrée de gamme" avec des graphismes bas/moyen, mais pas sur des PC qui ont + de 5 ans, faut pas rêver non plus.
The witcher 3 + mod est actuellement un des + beau jeu qui existe et il peut encore mettre à genou des configs à base de 2080 Ti. (sortit il y a 5 ans pourtant)