Thread
Menü

Gefährliche Entwicklung


28.07.2022 12:06 - Gestartet von iphone
Und bald werden solche Vorfälle auch den Behörden gemeldet, hat Apple ja angekündigt. Unter dem Deckmantel des Kinderschutzes wird hier ein technisches Monstrum geschaffen, von dem nicht mal die faschistischsten Staaten der Welt zu träumen gewagt hätten. Lieber auf zu wirklich sicheren Messengern, wie Signal oder Threema, wo niemand mitlesen oder schnüffeln möchte.
Menü
[1] pfungpfeur antwortet auf iphone
28.07.2022 14:19
In China schon realität. Ich wollte eigentlich gerne mal dort hin aber das werde ich mir gut überlegen und wenn dann ohne Smartphone und warscheinlich bin ich schon nur weil ich kein Smartphone dabei habe verdächtig, habe ich im Urlaub auch sonst nie.
Menü
[2] RheinLoki antwortet auf iphone
28.07.2022 17:46
Benutzer iphone schrieb:
Und bald werden solche Vorfälle auch den Behörden gemeldet, hat Apple ja angekündigt. Unter dem Deckmantel des Kinderschutzes wird hier ein technisches Monstrum geschaffen, von dem nicht mal die faschistischsten Staaten der Welt zu träumen gewagt hätten. Lieber auf zu wirklich sicheren Messengern, wie Signal oder Threema, wo niemand mitlesen oder schnüffeln möchte.

Ich glaube ios soll später alles Apps die Bilder filtern können.
Menü
[3] foobar99 antwortet auf iphone
29.07.2022 11:05
Benutzer iphone schrieb:
Und bald werden solche Vorfälle auch den Behörden gemeldet, hat Apple ja angekündigt.

Nope, das war eine völlig andere Funktion für die iCloud-Fotobibliothek, nicht den Messenger. Das sollte man deutlich differenzieren.

Unter dem Deckmantel des Kinderschutzes wird hier ein technisches Monstrum geschaffen, von dem nicht mal die faschistischsten Staaten der Welt zu träumen gewagt hätten.

Welches Monstrum wird geschaffen? Nacktbilder erst nach einem Klick anzuzeigen ist letztlich auch nichts anderes als z.B. Texterkennung in den Fotos, die es seit iOS 15 gibt, oder ein Foto-Filter.

Fotos werden lokal interpretiert und keine Information verlässt das System. Es wird daher auch keine gefährliche externe Meldungs- oder Überwachungsinfrastruktur geschaffen. (Wie gesagt, bei der iCloud-Funktion war das anders.) Das hier ist eine sinnvolle und optionale Funktion, die Privatsphäre und Verschlüsselung wahrt.

Wahrscheinlich hast du noch nie ungewollte Fotos erhalten und siehst daher keinen Bedarf für diese Funktion. Für bestimmte Teile der Bevölkerung ist das aber ein reales Problem.

Lieber auf zu wirklich sicheren Messengern, wie Signal oder Threema, wo niemand mitlesen oder schnüffeln möchte.

Was ist denn deine Definition von Mitlesen?
Ich kann mir keine solche Definition vorstellen, die bei der Foto-Analyse greift, bei anderer clientseitiger Verarbeitung aber nicht.
Menü
[4] helmut-wk antwortet auf iphone
04.08.2022 10:59
Benutzer iphone schrieb:
Und bald werden solche Vorfälle auch den Behörden gemeldet, hat Apple ja angekündigt.

Wo hat denn Apple angekündigt, dass die Nacktphotoerkennung demnächst so modifiziert wird, dass dein Smartphone automatisch die Behörden informiert? Und woher weiß die App auf deinem Smart, welche Behörde für dieses Gerät zuständig ist? Oder wird einfach die maledivische Behörde informiert, wenn du gerade auf den Malediven bist und jemand von irgendwo dir ein Nacktphoto schickt?

Unter dem Deckmantel des Kinderschutzes wird hier ein technisches Monstrum geschaffen, von dem nicht mal die faschistischsten Staaten der Welt zu träumen gewagt hätten.

Das klingt ja danach, dass du Details über den Algorithmus weißt, der die zu informierende Behörde ermittelt, die mich interessieren würden.

Denn dass du nicht verstanden hast, was im Artikel stand, können wir doch ausschließen - oder?