• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Amazon: Alexa soll lernen, Stimmen Verstorbener zu imitieren

Was für eine absurde Idee
Der Tod gehört zum leben, auch wenn das diese Meta-Blockchain-Welterschaffer gerne anders haben möchten... natürlich gegen bares.

"Ein YouTube-Clip zeigt, wie ein Junge Alexa bittet, dass seine verstorbene Großmutter das Buch für ihn zu Ende liest...
Alexa: Can Grandma finishing me reading..."

Nein, kann sie nicht, denn sie ist Tot.
Alexa erweckt keine Menschen zum leben.
Was für eine bescheuerte Welt ist denn hier am entstehen?

Dazu kommt natürlich noch der "normale" Missbrauch mit Stimmenverfälschung & co
Viel Spass bei dementen Menschen und Enkeltrick...
 
Ich finde diese "tolle" Neuerung von Amazon einfach nur gruslig und auch entwürdigend. Zum Tod eines Menschen gehört auch, damit selbst zu leben. Ob es für einen selbst das beste ist, diesen Trauerprozess illusorisch einfach auszuklammern wage ich mal zu bezweifeln. Unethisch ist es aber zumindest allemal.
Dazu kommt natürlich noch der "normale" Missbrauch mit Stimmenverfälschung & co
Viel Spass bei dementen Menschen und Enkeltrick...
Ich muss zugeben, dass ich an diese erschreckenden Möglichkeiten gerade gar nicht gedacht habe. Schöne Neue Welt.
 
Zuletzt bearbeitet:
So kann man seine restlichen Familienmitglieder auch in den Wahnsinn treiben...

Nennt man sein Kind heute eigentlich noch Alexa oder ist dass völlig out zur Zeit?
 
Nennt man sein Kind heute eigentlich noch Alexa oder ist dass völlig out zur Zeit?
Echo tut es doch auch, wobei die Erkennung etwas weniger rund läuft.

Davon ab, ich denke auch das dieses Feature mehr Psychen schädigen als helfen dürfte.?
 
Toll, Alexa lernt also jetzt schon Deine Stimme und kann Dir sonstwas in die Schuhe schieben. :haeh:
 
In Zukunft wird die Stimme und Medien nichts mehr wert sein, dank Deep Fake.

Naja und denkt mal an künstliche KI und Online Spiele:
Ich sag es mal so: Online Spiele werden nichts mehr wert sein, zumindest die Ranked Matches, die wird man nur noch Lokal ausführen können. Warum? Ist doch klar: Weil KI sämtliche Matches faken wird. :P

Das ist keine Sci-Fi, das sollte jetzt schon möglich sein und da wird keinerlei Anti Cheat mehr helfen können.
Die Ki wird wie sehr gut spielende Menschen agieren und nicht erkannbar sein,

Anti Cheat ist jetzt schon tod. Es ist ein einziger Witz, weil gegen KI kann es absolut nichts ausrichten.
Das gute dabei, man wird Anti Cheat in Zukunft nicht mehr benötigen. xD

Extern eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Weitere Informationen gibt es auf der Datenschutzseite.

Ist doch interessant mal darüber zu sprechen.
Wenn jeder diese KI verwendet laufen Matches total bescheuert ab. :-D
Multiplayerspiele werden nicht mehr gespielt werden.

Interessant werden nur noch Coop Spiele sein oder Spiele, wo man weiß, dass man mit Freunden spielt.

Warum hat eigentlich noch niemand über diese Sackgasse einer Multi Millionen Dollar Industrie gesprochen? :-D
 
Zuletzt bearbeitet:
Damit wären doch alle möglichen Betrügereien möglich. Da könnte man doch jemandem noch nachträglich irgendwelche Sätze unterjubeln, die er nie gesagt hatte.
 
Keinerlei Bedenken?!
Doch, schon.
Viele der vorher genannten Gründe sind an sich ja valide.
Ich mag den Fortschritt der Technik an sich. Wohl jede Technologie kann auch für schlechte Dinge eingesetzt werden.
Die Unterhaltung hatte ich gestern schon mit @MichaelG, der in Deepfake "nichts gescheites" sehen kann.

Warum hat eigentlich noch niemand über diese Sackgasse einer Multi Millionen Dollar Industrie gesprochen? :-D
Das von dir verlinkte Experiment mit OpenAI hat mich extrem begeistert. Auch hier habe die die positiven Aspekte gesehen. Leider ist die KI lange nicht so stark und wandlungsfähig, wie man auf den ersten Blick annehmen könnte.
Hier handelt es sich um einen Testparkour und klar abgesteckten Bedingungen. Das ist in normalen Matches nicht gegeben, da wäre die KI vermutlich schlechter als die meisten Menschen.
Klar, man kann die Reflexe auf Anschlag drehen. Nur ist die Entscheidungsfindung und Flexibilität wohl eher das Problem.

Zusätzlich bedarf es nicht immer "Anti-Cheat", um Cheater zu entdecken. CS und DOTA nutzen das imo ziemlich effektive Overwatch System. Das heißt: ausgewählte Spieler bewerten gemeldete Vergehen unabhängig voneinander im Verbund. Da würde auch so eine KI höchstwahrscheinlich auffliegen.




Was wenn AI in bestimmen Bereichen so effektiv wird, dass ein Mensch sie nicht mehr erkennen kann?
Genau, dann entwickelt man eine AI, die die kleinen, imperfekten Muster in Fälschungen ausmacht. Damit prüft man dann das betreffende "Objekt" und kann im Bestfall die Echtheit sicher bestätigen oder dementieren.

Auch hier ist natürlich Forschung notwendig und auch diese KI wird trainiert werden müssen. Da aber auf die bereits verfügbaren Daten der zu prüfenden Bereiche zugegriffen werden kann, geht die Entwicklung hoffentlich schneller.

Hier mal ein eher simples Beispiel, bezogen auf Photoshop:
 
Damit wären doch alle möglichen Betrügereien möglich. Da könnte man doch jemandem noch nachträglich irgendwelche Sätze unterjubeln, die er nie gesagt hatte.
Außerdem fordere ich weitere Opfer für das Spaghetti-Monster!
Kann ich mir nicht vorstellen.
Würd doch keiner machen, einfach so Lügen verbreiten ... :-D
 
Hier mal ein eher simples Beispiel, bezogen auf Photoshop:
Also sooo doll ist die Erkennungsmöglichkeit da aber nicht wirklich ...

Hier mal als Beispiel ein Bild, in dem Alice Weidel mit Hitler vermischt wurde - also eindeutig eine Bildbearbeitung.
Dafür, daß das eine derart offensichtliche Bearbeitung ist, sieht man im Resultat von FotoForensic relativ wenig ...

1656240135988.png
 
Also sooo doll ist die Erkennungsmöglichkeit da aber nicht wirklich ...

Hier mal als Beispiel ein Bild, in dem Alice Weidel mit Hitler vermischt wurde - also eindeutig eine Bildbearbeitung.
Dafür, daß das eine derart offensichtliche Bearbeitung ist, sieht man im Resultat von FotoForensic relativ wenig ...

Anhang anzeigen 23494
Jo, da hast du recht!
Aber es gibt ja noch genug andere Tools.
Grundsätzlich verlässt man sich ja beim ernsthaften Überprüfen von so etwas nicht nur auf eine einzige Methode.
 
Das gehört sich ja auch nicht.
Wenn du das angebracht findest, kann ich aber in Zukunft auch deine Aussagen nachträglich abändern.
Es geht aber nicht um "in Zukunft", sondern um eine einmaliges Falsch-Editieren, das im Kontext a) klar ist und b) - meines Erachtens - ein gewisses Humorpotential hatte.

Wo du da das Potential siehst, daß ich sowas in Zukunft öfters machen würde, was eine Reaktion wie "Lass das" benötigt, um mich davon abzubringen, kann ich nicht nachvollziehen.
 
Zurück