Das ist normal, weil die 200Hz nur die Darstellung des Bildes betreffen, egal ob von der Quelle (also zB PC oder BluRay-Player) nur 50 oder 60Hz oder noch mehr Hz/Bilder kommen. Die 50-60Hz werden halt vom TV dann genommen und mehrfach dargestellt, so dass man auf 200Hz kommt, wodurch das Bild "stabiler" werden soll vor allem bei schnellen Bewegungen. Denn bei 200Hz kann der LCD mehr "Zwischenbilder" berechnen, die den Übergang viel fließender erscheinen lassen - stell Dir vor, dass bei 25 Bildern pro Sekunde (das wäre typisch für Filme) bei Bild Nummer 12 ein Pixel rot ist und bei Bild Nummer 13 das gleiche Pixel gelb sein soll. Mit den zusätzlichen Zwischenbildern stellt der LCD dann mehrere neue Bilder da, in denen das Pixel erst Hellrot, dann Orange, dann Hellorange und am Ende gelb wird statt direkt von rot nach Gelb zu gehen. Obwohl das innerhalb von nur 1/25-Sekunde passiert, wirkt das Ganze halt sanfter als wenn Du nur 50-60Hz hättest.
Und TV-Geräte sind halt an sich für Fernsehen und Filme vorgesehen, und die sind halt vor allem auf TV-Sendungen und Filme abgestimmt, die auf 50-60Hz angelegt sind - auch Spielekonsolen sind ja so angelegt. Und die kleine Nutzergruppe von Gamern, die vielleicht bei manchen Spielen mehr als 60Hz nutzen könnten, weil ihr PC auch mehr als 60 FPS schafft, wird da technisch derzeit noch nicht beachtet.
Trotzdem wird das Bild von Deinem PC von den 200Hz vermutlich profitieren.
Das ist beim TV aber eben was anderes als die 120 bzw 144 Hz bei den betreffenden "Gamer"-Monitoren - bei DENEN kannst Du wirklich auch 120/144 Bilder vom PC aus in den Monitor schicken, die alle empfangen werden.
ach ja: die maximale Auflösung von modernen Grafikkarten ist normalerweise 2560x1600