Ist Apple Intelligence sicher oder nicht? Die Meinungen verschiedener Behörden und Interessengruppen gehen weit auseinander.
Apple arbeitet hart daran, Innovation und Datenschutz in Einklang zu bringen, während es sich auf die Einführung mehrerer neuer Programme für künstliche Intelligenz (KI) vorbereitet. Das Unternehmen verbessert seine KI-Funktionen mit Updates und einem Partnerschaft, um OpenAIs ChatGPT auf Apple-Geräte zu bringenAußerdem gibt es Gerüchte über eine Google Gemini-Integration das wird im vierten Quartal passieren. Gleichzeitig legt Apple Wert auf neue Systeme, die die Privatsphäre und Sicherheit der Benutzerdaten gewährleisten sollen.
„Wir freuen uns, mit Apple zusammenzuarbeiten, um ChatGPT seinen Nutzern auf eine neue Artwork und Weise zugänglich zu machen. Apple teilt unser Engagement für Sicherheit und Innovation und diese Partnerschaft steht im Einklang mit der Mission von OpenAI, fortschrittliche KI für alle zugänglich zu machen. Gemeinsam mit Apple machen wir es den Menschen einfacher, von den Möglichkeiten der KI zu profitieren“, angegeben Sam Altman, der CEO von OpenAI.
Ist Apple Intelligence sicher: Das Unternehmen aus Cupertino zeigt sich zuversichtlich
Apple ist dafür bekannt, dass es der Privatsphäre und Sicherheit der Benutzer höchste Priorität einräumt, und ist bestrebt, seinen Ruf aufrechtzuerhalten, während es im wettbewerbsintensiven KI-Bereich mitwirkt. Das Unternehmen legt Richtlinien fest, die sich von den üblichen ChatGPT-Praktiken unterscheiden, und entwickelt ein neues Cloud-System zur Bearbeitung einiger KI-Anfragen. Der Plan, ChatGPT mit einem bevorstehenden Betriebssystem-Replace direkt in Geräte zu integrieren, könnte dieses Gleichgewicht für Apple möglicherweise verändern.
Apple hat angekündigt, dass Benutzer können bald über ihre Geräte auf ChatGPT zugreifen, ohne ein separates Konto erstellen zu müssen. Dieser beliebte OpenAI-Chatbot wird kostenlos über Apples Sprachassistenten Siri verfügbar sein, der ein Replace erhalten soll, oder über Schreibtools auf ihren Geräten.
Um die Sicherheit der Benutzer zu gewährleisten, Apple hat außerdem neue Datenschutzmaßnahmen eingeführt, die im Vergleich zu den typischen Datenschutzrichtlinien von OpenAI strengere Requirements für die ChatGPT-Integration vorschreiben. Diese Updates sind Teil der Bemühungen von Apple, seinen Ruf als Unternehmen, das der Privatsphäre und Sicherheit seiner Benutzer höchste Priorität einräumt, aufrechtzuerhalten.
Zusätzlich zu diesen Datenschutz-Updates enthüllte Apple Non-public Cloud-Berechnungein neues Cloud-Intelligenzsystem für die non-public KI-Verarbeitung. Dieses System erweitert die „branchenführende Sicherheit und Privatsphäre“ von Apple-Geräten auf die Cloud. Wichtig ist, dass die an dieses System gesendeten persönlichen Benutzerdaten nur für den Benutzer zugänglich bleiben und Apple oder anderen Parteien kein Zugriff gewährt wird.
Laut einem Apple-Sprecher hat Apple durch die Verschleierung der IP-Adressen sichergestellt, dass OpenAI die Identität der Benutzer nicht mit ihren Anfragen verknüpfen kann.
„Für Benutzer, die auf ChatGPT zugreifen, ist ein Datenschutz eingebaut – ihre IP-Adressen werden verschleiert und OpenAI speichert keine Anfragen. Die Datennutzungsrichtlinien von ChatGPT gelten für Benutzer, die ihr Konto verbinden möchten.“
-Apfel
Laut Elon Musk ist Apple Intelligence nicht sicher
Elon Musk, Eigentümer von Tesla und X und bekannter Kritiker von OpenAI, hat hat erhebliche Bedenken hinsichtlich Apples neuer Integration von ChatGPT geäußertNach Apples Ankündigung letzte Woche drohte Musk damit, Apple-Geräte aus seinen Unternehmen zu verbannen und erklärte: „Das ist ein inakzeptabler Sicherheitsverstoß.“
Zuvor, im März, Musk reichte Klage gegen OpenAI einund behauptete, das Unternehmen sei von seiner ursprünglichen Mission abgewichen, KI zum Wohle der Menschheit zu entwickeln. Obwohl er die Klage später zurückzog, blieben seine Bedenken hinsichtlich der Praktiken von OpenAI bestehen.
Apple Intelligence ist laut Mira Murati sicher
Als Reaktion auf Datenschutzbedenken hat Apple umrissen neue Regeln für die ChatGPT-Integration, die von den üblichen Richtlinien von OpenAI abweichen. Insbesondere werden Anfragen an ChatGPT über Apple-Geräte nicht von OpenAI gespeichert.
Während des MPW-Dinners von Fortune am Dienstagabend reagierte Mira Murati, die Chief Expertise Officer von OpenAI, auf die Vorwürfe von Elon Musk. An das Publikum gerichtet sagte sie: „Das ist seine Meinung. Ich bin natürlich anderer Meinung. Die Privatsphäre unserer Nutzer und die Sicherheit unserer Produkte liegen uns sehr am Herzen.“
Apple Intelligence ist laut EU nicht sicher
Das US-Unternehmen gab bekannt, dass iPhone-Nutzer in der EU keinen Zugriff auf neue Funktionen wie Apple Intelligence, Verbesserungen der SharePlay-Bildschirmfreigabefunktion und iPhone-Mirroring. Diese Funktionen, die voraussichtlich noch in diesem Jahr eingeführt werden, werden in der EU aufgrund des neuen Digital Markets Act (DMA), mit der strengere regulatorische Anforderungen eingeführt wurden.
Eines der Hauptprobleme ist die Interoperabilitätsanforderung des DMA, die laut Apple im Widerspruch zu seinem Engagement für Datenschutz und Sicherheit steht. Interoperabilität erfordert, dass grundlegende Funktionen wie SMS, Anrufe, Sprachnachrichten und das Teilen von Bildern und Movies über verschiedene Betreiber und konkurrierende Geräte hinweg reibungslos funktionieren müssen.
Endgültiges Urteil
Craig Federighi, Apples Senior Vice President of Software program Engineering, hat hervorgehoben dass Apples Non-public Cloud Compute erweitert die branchenführende Sicherheit des iPhone auf die Cloud und stellt sicher, dass Benutzerdaten nur zur Erfüllung von Anfragen verwendet und niemals von jemand anderem, einschließlich Apple, gespeichert oder abgerufen werden können. Diese Architektur zielt darauf ab, leistungsstarke KI-Funktionen mit robusten Datenschutzmaßnahmen in Einklang zu bringen, die für zusätzliche Transparenz von unabhängigen Experten überprüft werden können.
Michelle Bachelet, UN-Hochkommissarin für Menschenrechte, hat betont Die Es bedarf dringend eines Moratoriums für KI-Systeme, die eine ernste Gefahr für die Menschenrechte darstellen, bis angemessene Schutzmaßnahmen vorhanden sind. Sie warnt, dass bei der Entwicklung und Implementierung von KI-Technologien – einschließlich der von Apple verwendeten – die Privatsphäre und die Menschenrechte streng beachtet werden müssen, um Missbrauch und Diskriminierung zu verhindern.
Die Brookings Establishment hat diskutiert die umfassenderen Auswirkungen von KI auf die Privatsphäre und stellt fest, dass KI die Möglichkeit vergrößert, persönliche Informationen auf eine Weise zu verwenden, die in Datenschutzinteressen eingreifen kann. Die Establishment fordert umfassende Datenschutzgesetze zum Schutz vor den negativen Auswirkungen von KI und betont die Notwendigkeit größerer Transparenz und Kontrolle über die in KI-Systemen verwendeten persönlichen Daten.
Letzten Endes sind wir aktive Teilnehmer der technologischen Welt und navigieren durch verschiedene Fortschritte und Innovationen. Obwohl wir nie ganz sicher sein können, was wirklich sicher ist, ist es immer ratsam, beim Umgang mit unseren persönlichen Daten wachsam und vorsichtig zu bleiben. Die Frage, ob Apple Intelligence sicher ist oder nicht, hängt letztlich von den individuellen Perspektiven und Komfortniveaus ab. Daher ist es für jeden entscheidend, sich zu informieren, die vorhandenen Datenschutzmaßnahmen zu verstehen und seine eigene Entscheidung hinsichtlich der Verwendung solcher Technologien zu treffen. Es liegt in Ihrer Verantwortung zu entscheiden, was sich für die Sicherheit Ihrer persönlichen Daten sicher und angemessen anfühlt.
Bildnachweis: Apfel