Techniquement parlant, afficher un second écran nécessite de prendre un partie des ressources allouées au premier écran pour s'afficher. Maintenant, tout dépend de ce qui est affiché sur le second écran et de la résolution.
Plus la résolution est haute, plus il faudra de mémoire pour l'image et donc c'est de la mémoire que n'aura pas l'affichage du premier écran. Maintenant, vu la quantité de RAM embarqué dans les cartes graphiques, cet impact n'est pas très important : une image en 1680*1200 fait dans les 7Mo, comparé au 256Mo ou plus qu'embarque une carte...
L'impact principal sur les performance vient donc de ce qui est affiché. Si c'est de la 2D (comme windows "pas Vista"), la encore les cartes actuelles sont surpuissantes et l'impact sera faible. Par contre, si c'est de la 3D (un jeu tel que Supreme Commander, ...), tu va sentir passer la différence, car la carte devra allouer un grosse partie de ses ressources (sans parlé des besoin en processeurs, RAM, ...)
Pour les puristes, ceci est une simplification de la réalité, je sais que c'est plus complexe que ça, mais j'ai tenté de faire simple.