• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Apple: iPhone-Update soll Bilder mit Kindesmissbrauch erkennen

Daniel Link

Redakteur
Mitglied seit
01.07.2019
Beiträge
1.399
Reaktionspunkte
27
Jetzt ist Deine Meinung zu Apple: iPhone-Update soll Bilder mit Kindesmissbrauch erkennen gefragt.

Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.

lastpost-right.png
Zum Artikel: Apple: iPhone-Update soll Bilder mit Kindesmissbrauch erkennen
 
Verstehe ich das richtig: Wir lassen u.a. unsere Familienfotos jetzt von Apple begutachten? Und wenn die KI es so will, schauen diese Fotos sich dann wildfremde Menschen an? Nur die Polizei oder auch Personal bei Apple?

Werden Nutzer, die von falschen Positiven betroffen sind, darüber informiert? Wie arbeitet dieser Algorithmus eigentlich? Für Aufnahmen vom "Seepferdchen" dann besser kein iPhone mehr verwenden?
 
Für Aufnahmen vom "Seepferdchen" dann besser kein iPhone mehr verwenden?
Ganz auf den Gebrauch davon verzichten, die werden schon gegen den Wind drehen wenn es ums Geld geht.

Wenn da erst einmal abgenickt wurde werden zusätzliche "Features" als bald nachgeschoben, im Zweifel dann ungefragt weil den Datenzugriff hat man ja schon genehmigt bekommen. :rolleyes:
 
Ohoh,
wenn Apple sich da nicht mal selbst ans Bein schießt.
Bisher ist Apple ja ziemlich geschlossen und sicher, aber das geht gar nicht das sie meine Pics durchsuchen.
Kindesmissbrauch aufzuklären ist gut, aber das geht zu weit. Und wie wollen die das machen, welcher Algorithmus steckt dahinter?
 
ganz ehrlich, mir ging schon die Lautstärkeregulierung aufn Sack, werd wohl wieder zu Android wechseln.
 
ganz ehrlich, mir ging schon die Lautstärkeregulierung aufn Sack, werd wohl wieder zu Android wechseln.
Was und wie meinst du das?
Und allein wegen Laustärke Regulierung zu wechseln ist ja wohl ein Witz. :finger: Dann frage ich dich ganz ernsthaft warum du überhaupt zu Apple gewechselt bist?
 
wieso gewechselt und die regulierung war so das apple der meinung war ich höre zulange zu laut und hat die lautstärke runtergedreht
Also bei mir wird nichts runtergeregelt an Musik Lautstärke wenn ich das nicht will.
Eventuell hast du den Akku/Stromsparmodus an. Das heißt, wenn der Akku leerer wird regelt IOS da ein paar Sachen runter, auch die gerade sehr intensive Lautstärke die eben viel Strom verbraucht.
Checke mal bitte deine Einstellungen.

Und wegen gewechselt, du hast doch geschrieben das du auf Android warst.

"werd wohl wieder zu Android wechseln."

Also
 
Zuletzt bearbeitet:
google bitte, es wurde wieder rückgängig gemacht, heißt heute kommt bloss ein hinweis. das netz war voll mit beschwerden was apple sich erdreistet die lautstärke runterzuschrauben.
und wegen wechseln, du hast geschrieben
Dann frage ich dich ganz ernsthaft warum du überhaupt zu Apple gewechselt bist?
vllt weil ich vor paar jahren kein vernüftiges Android gefunden habe wat in die hosentasche passt und da war das 4er 5er perfekt
 
Verstehe ich das richtig: Wir lassen u.a. unsere Familienfotos jetzt von Apple begutachten? Und wenn die KI es so will, schauen diese Fotos sich dann wildfremde Menschen an? Nur die Polizei oder auch Personal bei Apple?

Werden Nutzer, die von falschen Positiven betroffen sind, darüber informiert? Wie arbeitet dieser Algorithmus eigentlich? Für Aufnahmen vom "Seepferdchen" dann besser kein iPhone mehr verwenden?
Da gibt es einige bis sehr viele Probleme und offene Frage.

Ganz vorne...Stellt man sich dagegen Unterstützt man quasi das Problem sagt man "ok macht ruhig" ist man nicht mehr "Frei" und "Anonym"

Irgendwen wird es ein Fehler dieser KI geben und was passiert dann?
Gibt es einen zweiten Check eines Menschen? Warum darf dieser das , mit welchem Recht...Was ist wenn dieser auch falsch entscheidet...Tanzt dann gleich das SEK /FBI an und dreht die Bude auf links?
Ja Worstcase... aber genau sowas wird passieren und dieser einen Person wird das Leben dadurch versaut.
 
Ja Worstcase... aber genau sowas wird passieren und dieser einen Person wird das Leben dadurch versaut.
Wenn ich da einige Jahrzehnte zurückdenke, Kumpel hat eine recht populäre BBS betrieben und Hausdurchsuchung, soweit alles OK.
Ich kam zufällig vorbei und wurde als Zeuge mit eingespannt (ich wollte nur meine verliehene LD abholen an dem Tag :rolleyes: )

Bei der Durchsuchung haben sie ein "Böse Onkels" Fanordner (Zeitungsausschnitte etc.) als O-Ton "rechtsradikale Schriften" mit sichergestellt und deswegen eine zusätzliche Anklage erhalten die sich dann natürlich als nichtig herausgestellt hat.

Will sagen:
Kommt es zu dem Fall und die finden dabei egal ob der Ursprungsverdacht berechtigt oder nicht, irgendwas anderes bei euch, dann zieht euch ggf. warm an.
 
Für Aufnahmen vom "Seepferdchen" dann besser kein iPhone mehr verwenden?
Jep. Und die gute alte Digitalkamera benutzen, die es ja seit zig Jahren in kompakter Form und teilweise auch recht günstig zu kaufen gibt. Ganz klassisch ausdrucken und ins familieneigene Fotoalbum einkleben. :P
 
Jep. Und die gute alte Digitalkamera benutzen, die es ja seit zig Jahren in kompakter Form und teilweise auch recht günstig zu kaufen gibt. Ganz klassisch ausdrucken und ins familieneigene Fotoalbum einkleben. :P
Was heißt hier alt?
Ich fotografier noch rein Analog. :P
Also ich meine bei richtigen Fotos wenn ich unterwegs bin.:top:
 
Verstehe ich das richtig: Wir lassen u.a. unsere Familienfotos jetzt von Apple begutachten? Und wenn die KI es so will, schauen diese Fotos sich dann wildfremde Menschen an? Nur die Polizei oder auch Personal bei Apple?

Werden Nutzer, die von falschen Positiven betroffen sind, darüber informiert? Wie arbeitet dieser Algorithmus eigentlich? Für Aufnahmen vom "Seepferdchen" dann besser kein iPhone mehr verwenden?
Das System wird hier genauer erklärt: https://www.apple.com/child-safety/

Auf jedem Gerät wird eine Datenbank mit Hashes von bekanntem Material von Kindesmissbrauch hinterlegt (*). Fotos werden offline mit diesen Hashes verglichen. Beim Hochladen der Photos in die iCloud wird das Ergebnis des Vergleichs verschlüsselt mit übertragen.
Außerdem gibt es eine gewisse Schwelle an Red Flags, die erstmal überschritten werden muss bevor Apple einschreiten kann. Angeblich soll dadurch eine Gefahr von weniger als eins zu einer Billion bestehen, dass ein Account fälschlicherweise betroffen wird.

KI sehe ich da nichtmal am Rande wirken, und wird bei dem Artikel von Apple auch nicht angesprochen. o.0

(*) Quelle dafür ist das Nationale Zentrum für vermisste und ausgebeutete Kinder (NCMEC).

ganz ehrlich, mir ging schon die Lautstärkeregulierung aufn Sack, werd wohl wieder zu Android wechseln.
Nachdem das eine EU-Richtlinie ist, dürfte es auf Android auch nicht mehr anders aussehen. ;)
Aber vielleicht lässt es sich da einfacher umgehen.
 
Zuletzt bearbeitet:
Danke für den Hinweis. Trotzdem sehe ich es skeptisch, denn Kinderpornografie ist solange ich denken kann immer nur der Türöffner gewesen. Als nächstes kommen dann terroristische Inhalte, organisiertes Verbrechen und irgendwann ganz sicher auch Urheberrechtsverletzungen dazu. Die KI ist alles andere als perfekt. Was justitiabel ist, ergibt sich zudem nur aus dem Kontext. Das muss ein Gericht entscheiden. Eine KI kann das unmöglich leisten.

KI sehe ich da nichtmal am Rande wirken, und wird bei dem Artikel von Apple auch nicht angesprochen. o.0

Das sind sog. NeuralHashes, die ähnliche Inhalte ähnlichen Hashes zuordnen. Die Technik basiert auf einem neuronalen Netz, also auf KI. Alles andere hätte mich auch überrascht. Apple spricht das sehr wohl an, aber es interessiert sicher die wenigsten. Siehe:

 
Irgendwen wird es ein Fehler dieser KI geben und was passiert dann?
Gibt es einen zweiten Check eines Menschen? Warum darf dieser das , mit welchem Recht...Was ist wenn dieser auch falsch entscheidet...
Vielleicht erst mal den Artikel lesen?
=> "Wenn das System ein vermeintlich illegales Bild entdeckt hat, wird ein Team aus menschlichen Gutachtern hinzugezogen, welche dann die Strafverfolgung benachrichtigen, sollte es sich tatsächlich um ein solches handeln. "
 
Neben der Tatsache das unsere Privatsphäre nicht gewahrt wird, macht mir gerade Sorgen das sich nur irgendwelche wildfremden Amerikaner die Nacktbilder von:

  • Kleinkindern reinziehen werden, die eher ohne sexuellen Kontext aufgenommen wurden.
    (Familienbilder vom Strand, Planschbecken oder so.)

  • Teens und Jugendlichen reinziehen werden, die mit sexuellen Kontext aufgenommen wurden.
    (von Jugendlichen selbst)

Gerade bei letzterem ist das schon ein herber Bruch, was die Privatsphäre angeht. Wir wissen alle von uns selbst wie aktiv wir bereits in der Pubertät waren und heutzutage geht vieles als Video oder Bild durchs Handy (auch wenn man hofft das sie durch etwas Medienkompetenz es besser wissen sollten).

Vor allem wenn auch noch die Eltern bei jedem kleinen Teil Aktivität zum Thema Sexualität informiert werden, dann mal ein großes Autsch!

Wenn ich mir überlege, was wir damals alles angestellt haben und wenn Apples Maßnahmen später bei Google und Facebook Schule machen, dann dürfen unsere Kinder bereits recht früh lernen was es heißt unter einem totalitär Staat (in ihrem Fall die Eltern) zu leben.

Bin ja gespannt ob es auch hier in Deutschland aktiviert wird, gerade in der EU wäre das mit dem Datenschutz nicht vereinbar. Ich mag Apple, aber wenn sie diesen Kurs wirklich verfolgen, kommen sie zu sehr von ihrem Privatsphäre-Versprechen ab.

Und ich bezweifle sehr, das auf der Datenbank bei der die Hashes Bilder zugeordnet sind und diese Hashes auch entstehen, wirklich nur Kinderpornografische Inhalte zu finden sind. Da dürften schon längst ein paar Gesichter von gesuchten Personen und Gegenständen zu finden sein. Das ist nur realistisch, wir sprechen hier von Amerika.
 
Angeblich soll dadurch eine Gefahr von weniger als eins zu einer Billion bestehen, dass ein Account fälschlicherweise betroffen wird.
Das diese Wahrscheinlichkeit an den Haaren herbeigezogen ist, wissen wir doch alle, oder ?
Das erreichen nicht einmal die am stärksten geprüften/überwachten Prozesse !
 
Vielleicht erst mal den Artikel lesen?
=> "Wenn das System ein vermeintlich illegales Bild entdeckt hat, wird ein Team aus menschlichen Gutachtern hinzugezogen, welche dann die Strafverfolgung benachrichtigen, sollte es sich tatsächlich um ein solches handeln. "
Was allerdings die Fragestellung ...
Warum darf dieser das , mit welchem Recht...Was ist wenn dieser auch falsch entscheidet...
... bis auf die Mehrzahl nicht ansatzweise negiert.

Ich finde es schon reichlich "krank" das man Leuten zumutet, sich mit so etwas Vollzeit zu beschäftigen, wer sagt uns das die nicht irgendwann zum Problem werden. :rolleyes:
 
Vor allem wenn auch noch die Eltern bei jedem kleinen Teil Aktivität zum Thema Sexualität informiert werden, dann mal ein großes Autsch!
Wieso sollten "die Eltern bei jedem kleinen Teil Aktivität zum Thema Sexualität informiert werden"?

So wie ich das verstanden habe:
Wenn du ein Photo aufnimmst, läuft da die KI drüber. Wenn die dann feststellt: "Mögliche KiPo", dann gucken sich das mehrere Mitarbeiter an und stellen fest: ?/?

Wenn die dann festgestellt haben, daß es KiPo sein kann, dann wird die Polizei eingeschaltet.

dh: Natürlich wird es Einzelfälle geben, in denen die Eltern davon erfahren.
Aber daß "die Eltern jeden kleinen Teil Aktivität" mitbekommen, ist eine absurde Vorstellung.
 
Zurück