„Wir setzen KI verantwortungsvoll ein“

-

Um Zweifel an der KI bei Apple auszuräumen, organisierte das Unternehmen gestern auf der Bühne des Steve Jobs Theatre einen Vortrag, bei dem ein Journalist dem Vizepräsidenten für Softwareentwicklung, Craig Federighi, und dem Vizepräsidenten für maschinelles Lernen und Strategie mehrere wichtige Fragen stellte. IA, John Giannandrea. Federighi stellte fest, dass „die Rolle der KI nicht darin besteht, unsere Benutzer zu ersetzen, sondern sie zu stärken.“ Der Manager war der Ansicht, dass diese Technologie „in die Erfahrung integriert werden muss, die man ständig nutzt.“ Es muss intuitiv sein, aber auch auf Ihrem persönlichen Kontext basieren und Sie wirklich kennen. Und wenn Sie das tun, tragen Sie eine große Verantwortung: Es muss der Schutz Ihrer Privatsphäre sein.

Der Manager behauptete, sein Unternehmen sei nicht neu in dieser Technologie und versicherte, dass vor der gestrigen Ankündigung jedes iPhone „wahrscheinlich rund 200 Modelle für maschinelles Lernen hatte, die alles erledigten“, etwa Fotos verbessern oder einen Autounfall erkennen oder einen Benutzer fallen lassen, um um Hilfe zu bitten. „KI war in dieser Zeit ein Schlüsselelement, aber wir sehen sie nicht als Selbstzweck, sondern als Mittel, um ein Ziel zu erreichen“, sagte Federighi.

Für den Softwaremanager von Apple stellen Datenschutzanforderungen keine Einschränkung dar. „Das Gegenteil ist der Fall, denn nur die Forderung nach Privatsphäre erlaubt es uns, diese Modelle auf Ihre Daten auf Ihren Geräten anzuwenden“, betonte er. „Wir möchten, dass alles sehr privat ist, egal ob es lokal auf dem Gerät oder auf einer neuen privaten Cloud-Computing-Instanz läuft. So können wir sicher sein, dass wir Ihre persönlichen Daten nutzen können, damit diese Erlebnisse wirklich funktionieren. Daher sind wir sehr gespannt auf den Ansatz.“

Giannandrea (Mitte) und Federighi (rechts) während des Interviews im Steve Jobs Theater

F. Bracero

Angesichts einiger bekannter Probleme verschiedener Sprachmodelle, wie beispielsweise der erfundenen Informationen, sogenannten Halluzinationen, gab Giannandrea an, dass sie „das gesamte Material auf die Probe gestellt“ hätten. „Wir haben viel Energie in die sorgfältige Ausarbeitung dieser Modelle gesteckt“, fügte er hinzu. Und mit den Daten, die wir sehr sorgfältig verwendet haben, und dann natürlich Tests und Tests und Tests. Deshalb sind wir ziemlich zuversichtlich, dass wir diese Technologie verantwortungsvoll einsetzen.“

Giannandrea erklärte, dass der Ansatz von Apple darin besteht, dass drei eigene Sprachmodelle auf dem iPhone laufen, während es in Verbindung mit der Cloud ein weiteres gibt. Auch einige Zweifel daran, wie Apple seine Modelle trainiert, wurden ausgeräumt. Dies ist im Gegensatz zu OpenAI nicht der Fall, wenn Inhalte ohne Genehmigung aus dem Internet entnommen werden. „Wir nutzen verschiedenste Daten, um die Grundmodelle zu trainieren. Wir beginnen mit einer Investition, die wir seit vielen Jahren in die Websuche getätigt haben. „Wir wählen sorgfältig die qualitativ hochwertigsten Daten aus, die uns zur Verfügung stehen“, sagte er. „Wir lizenzieren viele Daten, eine große Vielfalt an Daten, darunter Nachrichtenarchive, Lehrbücher, Stockfotos, und all das fließt in diese Modelle ein.“


Federighi während der Präsentation von ChatGPT als KI-Dienst auf Apple-Geräten

F. Bracero

Den Erklärungen von Apple liegt die Vorstellung zugrunde, dass in der öffentlichen Wahrnehmung ein großer Mangel an Privatsphäre in der KI besteht, insbesondere bei leistungsstarken Modellen wie denen von OpenAI. Federighi bat, wie üblich, um ein Vertrauensvotum für die Tatsache, dass sein Unternehmen sich nicht der Sammlung von Daten seiner Benutzer widmet: „Es ist wichtig, dass Sie wissen, dass niemand, weder Apple noch sonst jemand, Zugriff darauf hat.“ alle Informationen, die zur Bearbeitung Ihrer Anfragen verwendet werden“

-