• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

PS4 angeblich mit Aufnahme-Funktion für Spiele ausgestattet

David Martin

Redakteur
Teammitglied
Mitglied seit
07.10.2005
Beiträge
2.819
Reaktionspunkte
77
Website
www.videogameszone.de
Jetzt ist Deine Meinung zu PS4 angeblich mit Aufnahme-Funktion für Spiele ausgestattet gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


arrow_right.gif
Zum Artikel: PS4 angeblich mit Aufnahme-Funktion für Spiele ausgestattet
 
In Verbindung miteinander unterstützen sich das Gerücht bezüglich der Videoaufnahme und das bezüglich der GPU von AMD ja. Schade gibt es noch keine PC-Software, die die Aufnahmefunktion von AMD-GPUs unterstützt.
 
Wo genau ist der Vorteil von einer GPU unterstützten Aufnahmefunktion? Im Grunde müsste man doch fraps lediglich mit 'on the fly x264' codierung ausstatten und fertig ist?!

Ich dachte bislang immer, dass der Flaschenhals bei den herkömmlichen Lösungen, d.h. Rohmaterial wird unbearbeitet auf Festplatte geschrieben, eben besagte Festplatte ist.

Gibt es einen Link zur Technologie von AMD bzgl. dieser 'Echtzeitvideoaufnahmen'?!
 
Es ist ein deutlicher Unterschied, ob die Grafikkarte direkt einen h264-Stream liefert den man nur noch auf die Platte schreiben braucht oder der Prozessor, während dem Spielen, Rohdaten entsprechend verarbeiten soll - und das auch noch in Echtzeit.

Vereinfacht gesagt ist bei der GCN-Architektur (Stichwort UVD) von AMD ein Chip verbaut, der h264 nicht nur de- sondern auch encoden kann. Als Quelle werden dabei nicht nur externe Daten akzeptiert, sondern auch das aktuelle Bild welches von der GPU berechnet wird.

Man darf wohl stark davon ausgehen, dass dies bei der PS4 verwendet werden würde. Für Rohdaten wird man wohl kaum den Speicherplatz zahlen wollen und wenn die Grafikeinheit die Funktion eh schon bietet ... warum nicht nutzen?
 
Zuletzt bearbeitet:
[...] ... warum nicht nutzen?
Darum gings doch in meinem Text garnicht? :O

Es ging primär darum, warum man bestehende Programme nicht einfach um GPGPU Codierung der Streams, wie eben Fraps, erweitert? Adobe und andere Programme nutzen ja auch die GPU zur Encodierung, so ganz ohne "eigenen Chip". ;)

Lediglich darauf wollte ich hinaus ... %)
 
Darum gings doch in meinem Text garnicht? :O

Es ging primär darum, warum man bestehende Programme nicht einfach um GPGPU Codierung der Streams, wie eben Fraps, erweitert? Adobe und andere Programme nutzen ja auch die GPU zur Encodierung, so ganz ohne "eigenen Chip". ;)

Lediglich darauf wollte ich hinaus ... %)

Dann soll FRAPS es doch gleich richtig machen und den Hardware Chip von AMD supporten... Dann kaufe ich mir ne AMD als 2. Graka nur um Spiele aufzunehmen :B
 
Hehe ... übrigens, was das "auslasten" betrifft: ich kenne kein Spiel, was meine GPU wirklich zu 100% kontinuierlich auslasten würde, von meinem i7 ganz zu schweigen. ;)

Wenn es doch ein Spiel gibt, was die GPU auslastet, könnte die CPU als 'fallback' herhalten ... welches aktuelle Spiel ist denn wirklich auf Mehrkern-CPUs hin optimiert? Keines. Wenn zwei Kerne mit ~60% ausgelastet sind, dann ist das schon selten und vorallem viel. ;)
 
... welches aktuelle Spiel ist denn wirklich auf Mehrkern-CPUs hin optimiert? Keines. Wenn zwei Kerne mit ~60% ausgelastet sind, dann ist das schon selten und vorallem viel. ;)

Ähm, doch? Die Aussage traf vor 10 Jahren vielleicht zu ;) - nahezu alle aktuellen Engines sind auf Mehrkern-Systeme hin optimiert, in der Regel mind. auf 4, oft aber auch mehr. Einfach mal die Details zu Engines googeln, die in den letzten Jahren aktuell gewesen sind. Nehmen wir z.B. die Unreal Engine 3: Wenn die Materialien in Echtzeit berechnet werden, nutzt die Engine 8 Threads, Unter gewissen Bedingungen sind es sogar 12, womit ein aktueller i7 durchaus ausgelastet werden kann.

Von Unigine, Havok oder z.B. Unity ganz zu schweigen.

Und sogar ältere Spiele können, wenn sie schlecht optimiert sind und man Dinge wie V-Sync abschaltet, aktuelle Top-GPUs auslasten.
 
Das ist doch Käse ... %)

Nenn mir doch mal bitte ein aktuelles Spiel, was wirklich von vier Kernen ( + 4 durch HT ) gebrauch macht? Keines.

Ob eine Engine nun lt. Prospekt auf Mehrkern-CPUs optimiert ist oder nicht, heißt noch lange nicht, dass es auch in der Praxis so aussieht. Übrigens schön das du selbst UE3 erwähnst, denn die Engine lastet meinen PC lediglich mit zwei Kernen aus. %)

Unity ist auch schön, denn wie es der Zufall will, probier ich mich seit einiger Zeit an einem iOS Spiel mit eben besagter Engine ... die PC Version läuft, richtig erraten, auch eher halbherzig auf meinem PC. Damit meine ich nicht die Performanc, sondern auch hier die Auslastung von CPU & GPU.

Was Havok in der Aufzählung verloren hat, versteh ich auch nicht und was Unigine betrifft: ich kenn den Benchmark, klar, aber keine echten Spiele, die diese Engine wirklich nutzen. %)

D.h. ich hoffe hier wirklich, dass du nicht einfach nur nach Mehrkern Engines gegoogled hast und hier copy'n'paste gemacht hast? ;)
 
Ne simple Frage, ernst gemeint. Da die Spiele super bei Dir laufen und nur 2 Kerne bis zu 60% ausgelastet sind, was würde es bringen wenn 4 Kerne zu je 30 % ausgelastet wären? Resourcentechnish hättest Du noch die gleiche Menge an Resourcen zur Vrfügung, nur anders aufgeteilt.

Wenn 2 Kerne bei Dir zu 100% ausgelastet wären, dann würde ich das Problem bei Dir verstehen. Wer sagt Dir ausserden daß kein dritter Kern hinzugefügt wird wenn die Last auf Kern 1+2 zu hoch wird?

Das sind Fragen die ich mir als Laie sofort stelle wenn ich Deinen Text lese,

Das ist doch Käse ... %)

Nenn mir doch mal bitte ein aktuelles Spiel, was wirklich von vier Kernen ( + 4 durch HT ) gebrauch macht? Keines.

Ob eine Engine nun lt. Prospekt auf Mehrkern-CPUs optimiert ist oder nicht, heißt noch lange nicht, dass es auch in der Praxis so aussieht. Übrigens schön das du selbst UE3 erwähnst, denn die Engine lastet meinen PC lediglich mit zwei Kernen aus. %)

Unity ist auch schön, denn wie es der Zufall will, probier ich mich seit einiger Zeit an einem iOS Spiel mit eben besagter Engine ... die PC Version läuft, richtig erraten, auch eher halbherzig auf meinem PC. Damit meine ich nicht die Performanc, sondern auch hier die Auslastung von CPU & GPU.

Was Havok in der Aufzählung verloren hat, versteh ich auch nicht und was Unigine betrifft: ich kenn den Benchmark, klar, aber keine echten Spiele, die diese Engine wirklich nutzen. %)

D.h. ich hoffe hier wirklich, dass du nicht einfach nur nach Mehrkern Engines gegoogled hast und hier copy'n'paste gemacht hast? ;)
 
Unity ist auch schön, denn wie es der Zufall will, probier ich mich seit einiger Zeit an einem iOS Spiel mit eben besagter Engine ... die PC Version läuft, richtig erraten, auch eher halbherzig auf meinem PC. Damit meine ich nicht die Performanc, sondern auch hier die Auslastung von CPU & GPU.

Dann machst du etwas falsch. Wie gut die Parallelisierung in einer Engine funktioniert hängt natürlich auch davon ab, wie gut der Entwickler die entsprechenden Funktionen nutzt.

Was Havok in der Aufzählung verloren hat, versteh ich auch nicht

Intel hat vor einer ganzen Weile die Vision-Engine aufgekauft und ins Havok-Portfolio integriert.

und was Unigine betrifft: ich kenn den Benchmark, klar, aber keine echten Spiele, die diese Engine wirklich nutzen. %)

Ich kenne mehrere. Einige sind schon lange veröffentlicht, andere befinden sich im Alpha-Stadium (und suchen gerade Alpha-Tester, falls es dich also wirklich interessiert ...).

D.h. ich hoffe hier wirklich, dass du nicht einfach nur nach Mehrkern Engines gegoogled hast und hier copy'n'paste gemacht hast? ;)

Wenn ich deine Kommentare bezüglich Mutlithreading von Unity, bezüglich Havok und der Unigine betrachte, könnte der Verdacht eher anders herum aufkommen ;)

Man muss nicht nach Mehrkern-Engine googlen, es gibt aktuell nämlich kaum eine die nicht mind. 4 Kerne unterstützen würde.

Oder nimm z.B. Battlefield 3: ich hab es nie selbst gespielt, diverse Testberichte im Internet zeigen aber, dass es mind. 4 Kerne gerne mal zu > 90% auslastet.
 
Ne simple Frage, ernst gemeint. Da die Spiele super bei Dir laufen und nur 2 Kerne bis zu 60% ausgelastet sind, was würde es bringen wenn 4 Kerne zu je 30 % ausgelastet wären? Resourcentechnish hättest Du noch die gleiche Menge an Resourcen zur Vrfügung, nur anders aufgeteilt.
Es ging mir primär um seine Argumentationskette, das aktuelle Engines wirklich gebrauch machen von Mehrkernprozessoren ... und das ist eben nicht der Fall.

Wenn 2 Kerne bei Dir zu 100% ausgelastet wären, dann würde ich das Problem bei Dir verstehen. Wer sagt Dir ausserden daß kein dritter Kern hinzugefügt wird wenn die Last auf Kern 1+2 zu hoch wird?
Darum gehts doch garnicht ... es geht darum, dass bei 90% der aktuellen Spiele, die ich auf meinem PC habe, im Schnitt zwei Kerne nichts zutun haben und diese Kerne eben, und hier schließt sich der Kreis zum eigentlich Thema, ohne Probleme 'on the fly' Spielvideos encodieren könnten, ohne das du, als User, ernsthaft was merkst.

Mit anderen Worten: einen extra Hardwarechip bzw. extra eine neue Grafikkarte kaufen wg. diesem Chip ist aus meiner Sicht absolut unsinnig, weil viel zu viel PC Ressourcen brach liegen bei aktuellen Spielen.
 
Darum gehts doch garnicht ... es geht darum, dass bei 90% der aktuellen Spiele, die ich auf meinem PC habe, im Schnitt zwei Kerne nichts zutun haben und diese Kerne eben, und hier schließt sich der Kreis zum eigentlich Thema, ohne Probleme 'on the fly' Spielvideos encodieren könnten, ohne das du, als User, ernsthaft was merkst.

Mit anderen Worten: einen extra Hardwarechip bzw. extra eine neue Grafikkarte kaufen wg. diesem Chip ist aus meiner Sicht absolut unsinnig, weil viel zu viel PC Ressourcen brach liegen bei aktuellen Spielen.

Du encodest mit zwei Kernen deines i7 ein Video in 1920x1080, entsprechendem Sound und mind. 25 FPS in Echtzeit? Das zeig mir mal.

Hast du dir auch schon mal überlegt, wie viel Strom das benötigt? Und wie wenig Strom ein dedizierter Chip dafür benötigt?
 
Dann machst du etwas falsch.
Genau, weil man als User ja im Normalfall das Lastverhalten der Engines beeinflussen kann ... :B :S

Wie gut die Parallelisierung in einer Engine funktioniert hängt natürlich auch davon ab, wie gut der Entwickler die entsprechenden Funktionen nutzt.
Ach? Was hab ich denn oben geschrieben? Ich sprach nicht ohne Grund von Theorie und Praxis. %)

Intel hat vor einer ganzen Weile die Vision-Engine aufgekauft und ins Havok-Portfolio integriert.
Du hast meinen Hinweis nicht verstanden, hm? Havok ist lediglich ein Teil einer gesamten Spieleengine, nämlich eine Bibliothek für Physikberechnung. Warum du mir jetzt in einer Diskussion, wo wir über komplette Engines sprechen, mit Havok kommst, ist mir immer noch nicht verständlich.

Im gleichen Atemzug könnte ich PhysX erwähnen ... hier wird die Berechnung durch die Grafikkarte vorgenommen. Was meiner Argumentation, warum nicht GPGPU nutzen, bekräftigt.

Jetzt verstanden? ;)

Ich kenne mehrere. Einige sind schon lange veröffentlicht, andere befinden sich im Alpha-Stadium (und suchen gerade Alpha-Tester, falls es dich also wirklich interessiert ...).
Tanke Wiki ist schon eine tolle Hilfe ... bislang redest du nur um den heißen Brei herum. Ich musste wirklich Wikipedia bemühen und zu sehen, welche Spiele gebrauch von der Engine machen. Die Liste ist wirklich gaaaaaaaaanz großes Kino! :B

Wenn ich deine Kommentare bezüglich Mutlithreading von Unity, bezüglich Havok und der Unigine betrachte, könnte der Verdacht eher anders herum aufkommen ;)
Na ... lies dir nochmal meine Kommentare durch und dann deine. Sicherlich sind meine Versuche bei Unity nicht mit einem AAA Spiel zu vergleichen. Nur ist eben Unity auch nicht die Leading-Engine auf dem PC! ;)

Bzgl. Havok hab ich dir deinen Logikfehler bereits vorgeführt ... also bislang hast du nicht mal ansatzweise mit Argumenten oder handfesten Beispielen glänzen können. ;)

Oder nimm z.B. Battlefield 3: ich hab es nie selbst gespielt, diverse Testberichte im Internet zeigen aber, dass es mind. 4 Kerne gerne mal zu > 90% auslastet.
BF3 hab ich nicht ... :]

Wenn ich allerdings google, scheinst du Recht zu haben, dass hier die CPU Last wirklich sehr hoch ist ... im gleichen Atemzug aber auch geschrieben wird, dass die GPU Auslastung sehr gering ist. ;)

D.h. hier hätte man wiederum auch die Ressourcen für eine x264 GPGPU Lösung. :]
 
Es ging mir primär um seine Argumentationskette, das aktuelle Engines wirklich gebrauch machen von Mehrkernprozessoren ... und das ist eben nicht der Fall.


Darum gehts doch garnicht ... es geht darum, dass bei 90% der aktuellen Spiele, die ich auf meinem PC habe, im Schnitt zwei Kerne nichts zutun haben und diese Kerne eben, und hier schließt sich der Kreis zum eigentlich Thema, ohne Probleme 'on the fly' Spielvideos encodieren könnten, ohne das du, als User, ernsthaft was merkst.

Mit anderen Worten: einen extra Hardwarechip bzw. extra eine neue Grafikkarte kaufen wg. diesem Chip ist aus meiner Sicht absolut unsinnig, weil viel zu viel PC Ressourcen brach liegen bei aktuellen Spielen.


Und doch, ich denke genau darum geht es (um alles was ich gesagt habe). Wenn Dein System zu gut ist um bei aktuellen Spielen ans Limit zu kommen ist es doch ein schlechtes System um zu testen auf wie vielen Kernen ein Spiel läuft (wenn das Spiel nicht mal 2 Kernen auslasten kann).

Es geht mir hier nicht um den extra Grafikschip, es geht mir um Deine Argumentationskette und ob Dein System dafür geeignet ist.

Wie gesagt, beui Mehrkernen bin ich Laie. Mirreicht es wenn ein Spiel gut läuft, da ist es mit egal auf wie vielen Kernen es läuft ;) Daher erneut meine Frage, dieses Mal auch in Textform:

Wenn ein Spiel welches von mir aus 99 Kerne unterstüzt mit nicht mal 2 Kernen zu 100% läuft, würde das Spiel trozdem mehr Kerne nutzen oder wäre es so intelligent seinen Resourcenhunger auf 2 Kerne zu begrenzen um mehr für das BS übrig zu lassen?
 
Jetzt wird es aber langsam aberwitzig. Geht es dir nur darum, andere User blöd dastehen zu lassen oder geht es dir wirklich um ein Thema und die Diskussion um dieses?

Genau, weil man als User ja im Normalfall das Lastverhalten der Engines beeinflussen kann ... :B :S

Als "User" natürlich nicht, aber als Entwickler sehr wohl. Wenn du als Entwickler die Möglichkeiten der Engine nicht nutzt, kann die Engine nichts dafür. Du schreibst, du entwickelst für iOS: ja, gerade dann solltest du die Multithreading-Funktionen eigentlich nutzen.

Du hast meinen Hinweis nicht verstanden, hm? Havok ist lediglich ein Teil einer gesamten Spieleengine, nämlich eine Bibliothek für Physikberechnung. Warum du mir jetzt in einer Diskussion, wo wir über komplette Engines sprechen, mit Havok kommst, ist mir immer noch nicht verständlich.

Und wieder falsch. Das hat vielleicht gestimmt, bis Intel Havok aufgekauft hat. Seit langem ist Havok jedoch ein Portfolio von vielen Dingen, unter anderem auch Tools für die Berechnung von Physik, ja, aber eben nur unter anderem -> Product Overview | Havok

Tanke Wiki ist schon eine tolle Hilfe ... bislang redest du nur um den heißen Brei herum. Ich musste wirklich Wikipedia bemühen und zu sehen, welche Spiele gebrauch von der Engine machen. Die Liste ist wirklich gaaaaaaaaanz großes Kino! :B

Bin ich daran Schuld, wenn du dafür ein Wiki brauchst? Wenn einen das Thema Engine und Multithreading interessiert, würde ich meinen, ist man in dem Bereich auch entsprechend informiert. Ansonsten würde es auch gereicht haben, hin und wieder die News der PC Games gelesen zu haben.

D.h. hier hätte man wiederum auch die Ressourcen für eine x264 GPGPU Lösung. :]

Auf einer Konsole, um die es bei diesen News ja geht, wohl kaum. Und auch das würde wieder ein vielfaches der Energie benötigen.
 
Jetzt wird es aber langsam aberwitzig. Geht es dir nur darum, andere User blöd dastehen zu lassen oder geht es dir wirklich um ein Thema und die Diskussion um dieses?
Schau dir doch meine ersten Beiträge an ... dann weißt du, dass es mir im Grunde um eine ernsthafte Diskussion ging.

Und wieder falsch. Das hat vielleicht gestimmt, bis Intel Havok aufgekauft hat. Seit langem ist Havok jedoch ein Portfolio von vielen Dingen, unter anderem auch Tools für die Berechnung von Physik, ja, aber eben nur unter anderem -> Product Overview | Havok
Das war mir in der Tat neu, danke für den Hinweis.

Nur leider ändert das nichts am Grundproblem, oder kannst du mir praxisrelevante Beispiele aufzählen, die Havok als Komplettengine nutzen und dann auch wirklich GPU & CPU optimal ausreizen? ;)

Bin ich daran Schuld, wenn du dafür ein Wiki brauchst? Wenn einen das Thema Engine und Multithreading interessiert, würde ich meinen, ist man in dem Bereich auch entsprechend informiert. Ansonsten würde es auch gereicht haben, hin und wieder die News der PC Games gelesen zu haben.
Nicht bös gemeint, aber auch hier ... du laberst einfach Käse. Du hast es selbst nicht nach der dritten Aufforderung geschafft, mir ein Beispiel zu nennen. Deine Hinweise, dass du dich damit beschäftigt und fit bist in allen Ehren, nur solltest du doch langsam mal knallharte Fakten auf den Tisch legen und reale Beispiele nennen.

Nenn doch halt wenigstens das Spiel / Programm mit dieser Engine, was wirklich ein sehr gutes Multithreading hat ... ich werde es mir dann ansehen. Wenn du recht hast, dann bestätige ich dir das sehr gerne.

Nur, ich kenn es mir aus meiner Erfahrung nicht vorstellen, denn warum sollen absolut unbekannte Titel das schaffen, was Triple A Titel nicht schaffen, die Ressourcen aktueller Hardware optimal zu nutzen?

Auf einer Konsole, um die es bei diesen News ja geht, wohl kaum. Und auch das würde wieder ein vielfaches der Energie benötigen.
Da hast du absolut Recht ... allerdings hab ich nicht ohne Grund von Fraps für PC gesprochen, dass diese Technik für Konsolen interessant hast, da hast du absolut recht.

Allerdings sehe ich für so einen spezialisierten Chip die Zukunft eher als 'totale' Settopbox für IPTV & nicht als Fraps Alternative für Konsolen. Die 360 wird ja z.B. in England bereits als IPTV Endgerät eingesetzt, mit so einem Chip und einer "eh" verbauten Festplatte, hätte man einen perfekten Videorekorder. Da ja lt. Gerüchten die PS4 und 720 ähnliche Hardware, die GPU soll bei beiden von AMD stammen, haben, wäre so ein Szenario durchaus denkbar. ;)
 
S

Nicht bös gemeint, aber auch hier ... du laberst einfach Käse. Du hast es selbst nicht nach der dritten Aufforderung geschafft, mir ein Beispiel zu nennen. Deine Hinweise, dass du dich damit beschäftigt und fit bist in allen Ehren, nur solltest du doch langsam mal knallharte Fakten auf den Tisch legen und reale Beispiele nennen.

Du aber auch nicht Rabowke. Alle Multithreading Spiele die Du gespielt hast unterstützen Multithreading und laufen auf Deinem System einfwandfrei.

Ja oder nein?

Ja, so wie ich es verstanden habe.

Wenn Dein System so gut ist daß 2 Kerne dafür ausreichen ist eine Sache, aber BEWEISE Du doch mal daß die Spiele nicht mehr Kerne nutzen wenn es benötigt wird.

Bis jetzt habe ich in keinem eurer Statements rauslesen können daß sie garantiert auf 2 Kerne beschränkt sind.

Aber der andere hats schon Recht. Eure Diskussion ist Polemik pur. Ihr seit nicht interessiert an der Wahrheit, sondern nur daran den anderen dumm dastehen zu lassen bzw. zu beweisen daß er unrecht hat. So liest es sich und nicht anders.
 
[...]
Wenn Dein System so gut ist daß 2 Kerne dafür ausreichen ist eine Sache, aber BEWEISE Du doch mal daß die Spiele nicht mehr Kerne nutzen wenn es benötigt wird.
Dachte das hab ich mit meinem nonchalanten Einwurf oben erklärt ... als User hast du keine Möglichkeit die Lastverteilung zu steuern, jedenfalls nicht ohne Extraprogramme.

D.h. wenn ich ein Spiel, nehmen wir aktuelles Beispiel DmC Reboot, spiele und nur zwei Kerne genutzt werden, dann ist das Beweis genug, dass aktuelle Spiele eben nicht für die Nutzung von Mehrkernprozessoren optimiert sind. Ausnahmen mögen die Regel bestätigen, keine Frage ... aber schau doch einfach selbst im Taskmanager nach. :]

Bis jetzt habe ich in keinem eurer Statements rauslesen können daß sie garantiert auf 2 Kerne beschränkt sind.
Das hast du falsch verstanden. Niemand sprach von beschränkt, denn das wäre eine künstliche Limitierung. Machen wir uns nichts vor, Ursache für dieses "Problem" sind die Konsolen ... die Engines & Spiele etc. sind eben für Konsolen optimiert und werden einfach nur portiert. Dank dieser Portierung werden von Hause aus ( = Engine ) nur zwei Kerne genutzt, ggf. freut sich der virtuelle Kern ( HT ) noch ein wenig, aber alle vier Kerne + HT ist wirklich super selten.

Aber der andere hats schon Recht. Eure Diskussion ist Polemik pur. Ihr seit nicht interessiert an der Wahrheit, sondern nur daran den anderen dumm dastehen zu lassen bzw. zu beweisen daß er unrecht hat. So liest es sich und nicht anders.
Find ich nicht, siehe meinen Beitrag über deinem. Ich bin gerne bereit meine Meinung zu überdenken, allerdings erwarte ich dafür ein wenig Input. ;)
 
Zurück