Anzeige
Anzeige
Für Links auf dieser Seite erhält GIGA ggf. eine Provision vom Händler, z.B. für mit oder blauer Unterstreichung gekennzeichnete. Mehr Infos.
  1. GIGA
  2. Tech
  3. Apple
  4. Peinliche KI-Panne: ChatGPT lässt Apple-Nutzer im Stich

Peinliche KI-Panne: ChatGPT lässt Apple-Nutzer im Stich

Die ChatGPT-App für macOS hat Daten im Klartext gespeichert. (© IMAGO / ZUMA Press Wire)
Anzeige

In der ChatGPT-App für macOS gab es eine schwerwiegende Sicherheitslücke, wie jetzt bekannt wurde. Demnach wurden Gespräche der Nutzer mit dem KI-Chatbot im Klartext gespeichert.
Ein Update von OpenAI verspricht nun Abhilfe durch Verschlüsselung.

ChatGPT auf macOS: Sicherheitslücke in KI-App

Nutzer von KI-Assistenten sollten sich bewusst sein, dass ihre Unterhaltungen nicht immer so sicher sind, wie sie glauben. Wie jetzt bekannt wurde, hat die App ChatGPT für Mac Gespräche ungeschützt im Klartext an einem leicht zugänglichen Ort gespeichert (Quelle: Neowin).

Anzeige

Im Prinzip konnte jede App ohne besondere Berechtigungen auf diese privaten Daten zugreifen. Das gilt auch für Schadsoftware, die sich auf Systemen eingenistet haben könnte. Ob es tatsächlich zu einem Datenabfluss gekommen ist oder die Gefahr nur theoretisch bestand, ist bislang nicht bekannt.

Normalerweise schützt macOS seit Version 10.14 persönliche Daten, indem Apps explizit um Erlaubnis fragen müssen, um auf bestimmte Bereiche zuzugreifen. ChatGPT umging diesen Schutz jedoch aus unbekannten Gründen, indem Daten außerhalb der empfohlenen Sandbox gespeichert wurden.

Anzeige

Nach Bekanntwerden des Problems hat OpenAI als Anbieter von ChatGPT nach eigenen Angaben schnell reagiert und ein Update veröffentlicht, das die lokal gespeicherten Daten nun verschlüsseln soll. Warum nicht von Anfang an eine Verschlüsselung eingesetzt wurde, erklärt OpenAI nicht.

So sieht Apples eigene KI-Lösung aus:

Apple Intelligence in 5 Minuten

Apple: Privatsphäre auch mit KI geschützt

Unabhängig von dem Vorfall weist Apple darauf hin, dass die Privatsphäre seiner Nutzer auch bei der Nutzung von KI stets gewährleistet sei.

Anzeige

Bei der angekündigten „Apple Intelligence“ setzt der Konzern auf die Verarbeitung von Daten direkt auf den Geräten der Nutzer. Das bedeutet, dass viele KI-Modelle und -Funktionen lokal auf dem iPhone, iPad oder Mac ausgeführt werden, ohne dass Daten an externe Server gesendet werden müssen.

Apple-Manager Craig Federighi versichert, dass alle KI-Funktionen den strengen Datenschutzrichtlinien des Unternehmens entsprechen und die Daten der Nutzer sicher verarbeitet werden.

Anzeige