Das Cloud-KI-System von Apple verspricht große Datenschutzversprechen, aber kann es halten?

Das Cloud-KI-System von Apple verspricht große Datenschutzversprechen, aber kann es halten?
Das Cloud-KI-System von Apple verspricht große Datenschutzversprechen, aber kann es halten?
-

Was gibt es Neues von Apple? Apple Intelligence Das System ist darauf ausgelegt, generative KI in den Kern von iOS zu integrieren. Das System bietet Benutzern eine Reihe neuer Diensteinklusive Text- und Bildgenerierung sowie Organisations- und Programmierfunktionen. Das System bietet zwar beeindruckende neue Möglichkeiten, bringt aber auch Komplikationen mit sich. Zum einen ist das KI-System auf riesige Datenmengen von iPhone-Nutzern angewiesen, was potenzielle Risiken für die Privatsphäre birgt. Mit der Zeit führt der erhebliche Bedarf des KI-Systems an größerer Rechenleistung dazu, dass Apple sich zunehmend auf sein Cloud-System verlassen muss, um seine Anforderungen zu erfüllen. Benutzerwünsche.

Miura 1, die erste spanische Rakete

In der Vergangenheit hat Apple iPhone-Kunden beispiellose Privatsphäre geboten; ein Großteil der Marke des Unternehmens. Zu diesen Datenschutzgarantien gehört die Option, zu wählen, wann mobile Daten lokal und wann in der Cloud gespeichert werden. Während eine stärkere Abhängigkeit von der Cloud einige Bedenken hinsichtlich der Privatsphäre auslösen könnte, hat Apple diese Bedenken vorhergesehen und ein erstaunliches neues System entwickelt. Das ruft dich an Privates Cloud Computing oder PCC. Hierbei handelt es sich eigentlich um ein Cloud-Sicherheitssystem, das Benutzerdaten vor neugierigen Blicken schützen und gleichzeitig zur Einhaltung von KI-Vorgaben beitragen soll. -bezogene Anfragen.

Auf dem Papier klingt Apples neues Datenschutzsystem wirklich beeindruckend. Das Unternehmen behauptet, „die fortschrittlichste Sicherheitsarchitektur geschaffen zu haben, die jemals für die Cloud implementiert wurde“. „KI rechnet im großen Maßstab.“ Aber was auf dem Papier wie eine große Errungenschaft erscheint, könnte in Zukunft letztendlich zu größeren Problemen für die Privatsphäre der Nutzer führen. . Und es ist zumindest zum jetzigen Zeitpunkt unklar, ob Apple seine hohen Versprechen einhalten kann.

Wie Apples Private Cloud Computing funktionieren soll

In vielerlei Hinsicht sind Cloud-Systeme einfach riesige Datenbanken. Wenn ein böswilliger Akteur in dieses System/diese Datenbank eindringt, kann er die darin enthaltenen Daten einsehen. Allerdings Apple Privates Cloud-Computing (PCC) bietet eine Reihe einzigartiger Schutzmaßnahmen, die diese Art von Zugriff verhindern sollen.

Apple gibt an, sein Sicherheitssystem sowohl auf Software- als auch auf Hardwareebene implementiert zu haben. Das Unternehmen hat benutzerdefinierte Server erstellt, auf denen das neue Cloud-System gehostet wird. Diese Server durchlaufen während der Herstellung einen strengen Überprüfungsprozess, um sicherzustellen, dass sie sicher sind. „Hochauflösende Bilder der PCC-Knotenkomponenten“, erklärt das Unternehmen. Server werden außerdem mit physischen Sicherheitsmechanismen wie einem manipulationssicheren Siegel ausgestattet. Die Geräte von iPhone-Benutzern können sich nur mit Servern verbinden, die als Teil des geschützten Systems zertifiziert wurden, und diese Verbindungen sind Ende-zu-Ende-verschlüsselt, was bedeutet, dass die übertragenen Daten während der Übertragung praktisch unantastbar sind.

Sobald Daten die Server von Apple erreichen, gibt es weitere Schutzmaßnahmen, um sicherzustellen, dass sie privat bleiben. Apple sagt, dass seine Cloud davon profitiert Zustandsloses Rechnen um ein System zu schaffen, in dem Benutzerdaten nicht über den Punkt hinaus gespeichert werden, an dem sie zur Erfüllung einer KI-Dienstanfrage verwendet werden. Daher haben Ihre Daten laut Apple keine nennenswerte Nutzungsdauer auf Ihrem System. Die Daten werden von Ihrem Telefon in die Cloud übertragen, interagieren mit den leistungsstarken KI-Algorithmen von Apple und erfüllen so alle zufälligen Fragen oder Wünsche, die Sie gesendet haben („Zeichnen Sie mir ein Bild vom Eiffelturm auf dem Mars“), und dann Daten werden (wiederum laut Apple) gelöscht.

Apple hat eine Reihe weiterer Sicherheits- und Datenschutzmaßnahmen eingeführt, über die Sie ausführlicher lesen können auf dem Unternehmensblog. Obwohl diese Abwehrmaßnahmen unterschiedlich sind, scheinen sie alle auf eines ausgerichtet zu sein: Verstöße gegen das neue Cloud-System des Unternehmens zu verhindern.

Aber ist das wirklich legitim?

Unternehmen machen ständig große Versprechungen im Bereich Cybersicherheit und es ist meist unmöglich zu überprüfen, ob sie die Wahrheit sagen oder nicht. FTX, die gescheiterte Kryptowährungsbörse, behauptete einmal, dass sie die digitalen Vermögenswerte der Benutzer auf isolierten Servern verwahre. Spätere Untersuchungen zeigten das es war reine Scheiße. Aber Apple ist natürlich anders. Um externen Beobachtern zu zeigen, dass es seine Cloud wirklich sichert, kündigt das Unternehmen an, etwas namens „Transparency Logging“ einzuführen, das die vollständige Produktion umfasst Software-Bilder (im Grunde Kopien des vom System verwendeten Codes). Es ist geplant, diese Protokolle regelmäßig zu veröffentlichen, damit externe Forscher überprüfen können, ob die Cloud wie von Apple angegeben funktioniert.

Was die Leute über den PCC sagen

Das neue Datenschutzsystem von Apple hat die Technologie-Community deutlich polarisiert. Während der beträchtliche Aufwand und die beispiellose Transparenz, die das Projekt auszeichnen, viele beeindruckt haben, sind einige besorgt über die weitreichenderen Auswirkungen, die es auf den mobilen Datenschutz im Allgemeinen haben könnte. Vor allem alias Elon Musk begann sofort zu verkünden dass Apple seine Kunden betrogen hatte.

Simon Willison, ein Webentwickler und Programmierer, sagte gegenüber Gizmodo, dass ihn das „Maß der Ambitionen“ des neuen Cloud-Systems beeindruckt habe.

„Sie befassen sich gleichzeitig mit mehreren extrem schwierigen Problemen im Bereich Privacy Engineering“, sagte er. „Der beeindruckendste Teil ist meiner Meinung nach die Überprüfbarkeit, der Teil, bei dem Bilder zur Überprüfung in einem Transparenzprotokoll veröffentlicht werden, mit dem Geräte sicherstellen können, dass sie nur mit einem Server kommunizieren, auf dem öffentlich zugängliche Software ausgeführt wird.“ „Apple beschäftigt einige der besten Datenschutzingenieure der Branche, aber selbst nach seinen Maßstäben ist dies eine gewaltige Aufgabe.“

Aber nicht alle sind so begeistert. Matthew Green, Professor für Kryptographie an der Johns Hopkins University, äußerte sich skeptisch gegenüber Apples neuem System und seinen Versprechen. Das kam zusammen.

„Ich liebe es nicht“, sagte Green mit einem Seufzer. „Meine große Sorge ist, dass dadurch viel mehr Benutzer zentralisiert werden. Daten in einem Rechenzentrum, während sich derzeit das meiste davon auf den echten Telefonen der Menschen befindet.“

Apple hat in der Vergangenheit die lokale Datenspeicherung zu einer Säule seines mobilen Designs gemacht, da Cloud-Systeme für ihre Datenschutzmängel bekannt sind.

„Cloud-Server sind nicht sicher, daher hat Apple schon immer diesen Ansatz verfolgt“, sagte Green. „Das Problem ist, dass Apples interne Chips bei all dem KI-Zeug nicht leistungsfähig genug sind, um die Dinge zu tun, die sie wollen. „Wir müssen die Daten an die Server senden und sie versuchen, diese hochsicheren Server zu bauen, in die sich niemand hacken kann.“

Er versteht, warum Apple diesen Schritt geht, ist aber nicht unbedingt damit einverstanden, da er eine stärkere Abhängigkeit von der Cloud bedeutet.

Green sagt, Apple habe auch nicht klargestellt, ob es den Benutzern erklären werde, welche Daten lokal bleiben und welche Daten mit der Cloud geteilt werden. Dies bedeutet, dass Benutzer möglicherweise nicht wissen, welche Daten von ihren Telefonen exportiert werden. Gleichzeitig hat Apple nicht klargestellt, ob iPhone-Nutzer das neue PCC-System deaktivieren können. Wenn Benutzer gezwungen werden, einen bestimmten Prozentsatz ihrer Daten mit der Cloud von Apple zu teilen, bedeutet dies möglicherweise weniger Autonomie für den durchschnittlichen Benutzer, nicht mehr. Gizmodo hat Apple zur Klärung beider Punkte kontaktiert und wir werden diese Geschichte aktualisieren, wenn das Unternehmen antwortet.

Für Green signalisiert das neue PCC-System von Apple einen Wandel in der Telefonbranche hin zu einer stärker von der Cloud abhängigen Haltung. Dies könnte insgesamt zu einer weniger sicheren Datenschutzumgebung führen, sagt er.

„Ich habe gemischte Gefühle“, sagte Green. „Ich denke, dass genügend Unternehmen sehr ausgefeilte KI implementieren werden[biszudemPunktandemkeinUnternehmenzurückgelassenwerdenmöchte“„IchdenkeVerbraucherwerdenwahrscheinlichUnternehmenbestrafendiekeinegroßartigenKI-Funktionenhaben“[paraElpuntodondeningunaempresaquerráquedarseatrásCreoquelosconsumidoresprobablementecastigaránalasempresasquenotienenexcelentesfuncionesdeIA”

Dieser Inhalt wurde automatisch aus dem Originalmaterial übersetzt. Aufgrund der Feinheiten der maschinellen Übersetzung kann es zu geringfügigen Abweichungen kommen. Für die Originalversion klicken Sie hier.

-

PREV Setzt einen neuen Standard in der mobilen Fotografie
NEXT Hubble-Weltraumteleskop beobachtet ein kosmisches Fossil :: NASANET