6. August 2021
August 202106

Apple läßt die Maske fallen

Apple, Hersteller des iPhones und des iPads, hat sich in den letzten Monaten und Jahren gerne als Verfechter und Beschützer seiner Kunden dargestellt, wenn es darum ging, daß Strafverfolgungsbehörden Zugang zu den auf den Geräten und in der iCloud gespeicherten Daten ging. Wobei letzteres schon in der Kritik stand, weil Apple offenbar keine Vollverschlüsselung vornimmt. Aber das war einmal. War bislang der Kunde nur durch Infiltrierung durch die Strafverfolgungsbehörden und Geheimdiensten bedroht (Staatstrojaner usw.), führt Apple nun selber eine permanente Überwachung seiner Benutzer ein.

Es mag ja eine gute Absicht dahinter stehen (ich komme gleich darauf), aber wie ein altes Sprichwort sagt: Gut gemeint ist nicht gut gemacht. Tatsächlich wird die Büchse der Pandora geöffnet. All die Staaten, die sich schon immer die Überwachung gewünscht haben, von China über Rußland angefangen bis zu den ach so demokratischen und freiheitlichen Staaten des Westens, werden nun »na, es geht doch!« sagen und keine Ausrede, die vorher noch funktioniert hat (technisch nicht möglich, usw.) gelten lassen, selbst, wenn sie tatsächlich noch gelten sollte. Auch werden sie natürlich den Hauptkonkurrenten Google mit ihrem Android mit den gleichen Forderungen angehen sowie die wenigen noch kleinen Mitspieler.

Was haben nun die Gutmenschen von Apple vor? Mit der neuen Betriebsystemversion für das iPhone und iPad sollen zwei neue Funktionen kommen, die helfen sollen, kinderpornographische Darstellungen zu verfolgen und zu unterbinden. Die erste Funktion dient dazu, bereits bekannte Darstellungen zu identifizieren. Dazu werden alle auf dem iPhone gespeicherten Bilder gescannt und von ihnen ein digitaler Fingerabdruck (Hash) erstellt. Ähnlich wie Microsofts PhotoDNA soll der verwendete Algorithmus robust gegen Veränderungen des Bildes sein, zum Beispiel Skalierungen, Drehungen und Verzerrungen, Kontrast- und Farbveränderungen. Diese Hashwerte werden lokal auf dem Gerät mit einer Datenbank von Hashwerten bekannter Bilder verglichen, die Apple von Drittorganisationen bezieht. Etwaige Treffer werden nicht gemeldet, die Bilder aber entsprechend markiert. Lädt der Benutzer seine Bilder nun in die iCloud hoch, was fast alle machen, werden diese Markierungen mit übertragen. Übersteigt die Zahl der so markierten Bilder einen Grenzwert, wir Apple aktiv und gibt seine Erkenntnisse an die Drittorganisationen weiter, die dann vermutlich diese wiederum an die Strafverfolgungsbehörden weitergeben. Irgendwie ist da auch noch Kryptographie aus Datenschutzgründen im Spiel. Ich gebe aber zu, daß ich das nicht ganz verstanden habe, weil mir da auch die Hintergründe über die iCloud und die Art und Weise, wie dort die Daten abgelegt werden, fehlen. Aber ich halte das auch für ziemlich irrelevant für die Diskussion. Das ist meiner Vermutung nach mehr eine Art Nebelkerze oder Beruhigungspille, ähnlich, wie Apple behauptet, die Wahrscheinlichkeit eines »False Positives«, also, daß ein Bild als Kinderpornographie identifiziert wird, ohne eine solche zu sein, mit eins zu einer Billionen beziffert. Wenn es gerade in diesen Tagen Forschern gelungen ist, die Gesichtserkennung großflächig auszuhebeln, ist das nicht unbedingt glaubwürdig.

Die zweite Funktion soll die Verbreitung von kinderpornographischen Bildern verringern, die die Kinder in ihrer sittlichen Unreife und Naivität von sich selbt machen. Glaubt die KI des iPhones/iPads, daß ein Kind solch ein Bild über den Apple Messenger-Dienst verschicken will oder empfangen hat, verpixelt es das Bild, warnt das Kind und benachrichtigt je nach Einstellung gleichzeitig die Eltern.

In der Apple-Community gibt es nun gerade mächtig Ärger. Auch viele Sicherheitsfachleute und Kryptographen sind hochgradig empört.

Weitere Details finden sich bei Ars Technica und bei Heise (erster Artikel, zweiter Artikel, Kommentar). Auch die Bild und der Focus haben das Thema schon aufgegriffen.