OpenAI scheint jeden Tag Schlagzeilen zu machen, und dieses Mal sind es doppelte Sicherheitsbedenken. OpenAI ist für seine bahnbrechenden Fortschritte in der künstlichen Intelligenz bekannt und steht nun ins Rampenlicht, und zwar nicht nur wegen zwei gravierende Sicherheitsverstöße.

Diese Vorfälle haben Fragen zum Umgang des Unternehmens mit Daten und zu seinen Cybersicherheitsprotokollen aufgeworfen und das Vertrauen sowohl der Benutzer als auch der Branchenexperten erschüttert.

ChatGPT für Mac ist voller Sicherheitslücken

Der Mac-App für ChatGPT ist ein beliebtes Werkzeug für Benutzer, die das leistungsstarke Sprachmodell von OpenAI nutzen möchten. GPT-4odirekt von ihren Desktops aus. Diese Woche wurde jedoch eine Sicherheitslücke aufgedeckt.

Pedro José Pereira Vieitoein Swift-Entwickler, entdeckte, dass die App Benutzergespräche im Klartext lokal auf dem Gerät speicherte. Das bedeutet, dass alle während dieser Gespräche ausgetauschten vertraulichen Informationen nicht geschützt waren und somit für andere Anwendungen oder potenzielle Malware zugänglich waren.

Vieitos Erkenntnisse wurden schnell von Tech-Nachrichtenagenturen aufgegriffen Der Randwas die Besorgnis unter den Benutzern verstärkte und OpenAI dazu veranlasste, rasch zu handeln. Das Unternehmen veröffentlichte ein Replace, das Verschlüsselung für lokal gespeicherte Chats eingeführtum das unmittelbare Sicherheitsproblem anzugehen.

Das Fehlen von Sandboxing, einer Sicherheitsmethode, die Anwendungen isoliert, um zu verhindern, dass Schwachstellen andere Teile des Programs beeinträchtigen, erschwerte das Downside noch weiter. Da die ChatGPT-App nicht auf dem Apple App RetailerEs muss nicht den Sandboxing-Anforderungen von Apple entsprechen.

Die Tatsache, dass es überhaupt zu einem derart grundlegenden Sicherheitsversehen kam, wirft Fragen zu den internen Sicherheitspraktiken von OpenAI und der Gründlichkeit ihres App-Entwicklungsprozesses auf.

Durch diese Lücke konnte die App Daten unsicher speichern und Benutzer potenziellen Risiken aussetzen.

Die schnelle Lösung durch OpenAI hat die unmittelbare Bedrohung eingedämmt, aber auch die Notwendigkeit strengerer Sicherheitsmaßnahmen bei der Entwicklung und Bereitstellung von KI-Anwendungen hervorgehoben.

Das Spielbuch eines Hackers

Das zweite Sicherheitsproblem von OpenAI ist wurzelt in einem Vorfall vom letzten Frühjahraber seine Auswirkungen sind noch heute spürbar.

Anfang letzten Jahres Einem Hacker gelang es, in die internen Nachrichtensysteme von OpenAI einzudringenund erhalten Zugang zu vertraulichen Informationen über die Geschäftstätigkeit und KI-Technologien des Unternehmens. Hacker entwendete Particulars aus Diskussionen in einem On-line-Discussion board, in dem Mitarbeiter über die neuesten Technologien von OpenAI sprachenso zwei mit dem Vorfall vertraute Personen, hatte jedoch keinen Zugriff auf die Systeme, in denen das Unternehmen seine KI beherbergt und baut.

Führungskräfte von OpenAI berichteten den Mitarbeitern von dem Vorfall während einer All-Fingers-Assembly im Büro des Unternehmens in San Francisco im April 2023. Es wurde jedoch entschieden, den Verstoß nicht öffentlich bekannt zu geben, da keine Kunden- oder Partnerinformationen gestohlen wurden und die Führungskräfte ihn nicht als Bedrohung für die nationale Sicherheit betrachteten. Sie glaubten, dass die Hacker battle eine Privatperson ohne Verbindungen zu einer ausländischen Regierungso dass sie informierte weder das FBI noch die Strafverfolgungsbehörden.

Sicherheitslücken bei OpenAI
Es wurde festgestellt, dass die ChatGPT-Mac-App Benutzergespräche im Klartext speichert, was ein Sicherheitsrisiko darstellt (Bildnachweis)

Diese Entscheidung führte zu internen Bedenken hinsichtlich der Sicherheitslage von OpenAI. Einige Mitarbeiter befürchteten, dass Ausländische Gegner wie China könnten möglicherweise ähnliche Schwachstellen ausnutzen um KI-Technologie zu stehlen, die letztendlich eine Bedrohung für die nationale Sicherheit der USA darstellen könnte.

Leopold Aschenbrenner, ein Technischer Programmmanager von OpenAIargumentierte, dass Das Unternehmen hat nicht genügend Maßnahmen ergriffen, um solche Bedrohungen zu verhindernEr sandte ein Memo an den Vorstand, in dem er seine Bedenken darlegte, wurde jedoch später entlassen. Seiner Aussage nach battle der Schritt aufgrund seiner Enthüllungen politisch motiviert.

Geflüsterte Sorgen

Der interner Verstoß und anschließende Behandlung des Vorfalls haben tiefere Risse innerhalb von OpenAI in Bezug auf Sicherheitspraktiken und Transparenz aufgedeckt. Aschenbrenners Entlassung, die seiner Aussage nach eine Folge seiner Whistleblowing-Aktivitäten battle, hat eine Debatte über das Engagement des Unternehmens für Sicherheit und den Umgang mit internen Meinungsverschiedenheiten ausgelöst. Während OpenAI behauptet, dass seine Entlassung nichts mit seiner Whistleblowing-Aktivität zu tun hatte, hat die State of affairs Spannungen innerhalb des Unternehmens deutlich gemacht.

Der Datendiebstahl und seine Folgen haben auch die potenziellen geopolitischen Risiken unterstrichen, die mit hochentwickelten KI-Technologien einhergehen. Die Befürchtung, dass KI-Geheimnisse von ausländischen Gegnern wie China gestohlen werden könnten, ist nicht unbegründet. Ähnliche Bedenken wurden auch in der Technologiebranche geäußert, insbesondere von Microsoft-Präsident Brad Smith, der aussagte, chinesische Hacker würden technische Systeme ausnutzen, um staatliche Netzwerke anzugreifen.

Trotz dieser Bedenken verhindern Bundes- und Landesgesetze, dass Unternehmen wie OpenAI aufgrund der Nationalität diskriminieren. Experten argumentieren, dass der Ausschluss ausländischer Talente die KI-Entwicklung in den USA behindern könnte. Matt Knight, Sicherheitschef von OpenAI, betonte die Notwendigkeit, diese Risiken auszugleichen und gleichzeitig die besten Talente weltweit zu nutzen, um KI-Technologien voranzutreiben.

Sicherheitslücken bei OpenAI
Im Jahr 2023 drang im vergangenen Frühjahr ein Hacker in die internen Nachrichtensysteme von OpenAI ein und erhielt Zugriff auf vertrauliche Informationen (Bildnachweis)

Was ist das Machtspiel von OpenAI?

Als Reaktion auf diese Vorfälle OpenAI hat Schritte unternommen, um seine Sicherheitsmaßnahmen zu stärkenDas Unternehmen hat eine Sicherheitsausschuss um die mit zukünftigen Technologien verbundenen Risiken zu bewerten und zu mindern. Zu diesem Ausschuss gehören namhafte Persönlichkeiten wie Paul Nakasoneein ehemaliger Normal der Armee, der die Nationwide Safety Company und das Cyber ​​Command leitete und in den Vorstand von OpenAI berufen wurde.

OpenAIs Engagement für Sicherheit wird auch durch die laufenden Investitionen in die Absicherung seiner Technologien unter Beweis gestellt. Knight betonte, dass diese Bemühungen bereits Jahre vor der Einführung von ChatGPT begannen und sich weiter entwickeln, da das Unternehmen versucht, neu entstehende Risiken zu verstehen und anzugehen. Trotz dieser proaktiven Maßnahmen haben die jüngsten Vorfälle gezeigt, dass der Weg zu robuster Sicherheit noch nicht zu Ende ist und ständige Wachsamkeit erfordert.


Bildnachweis für vorgestelltes Bild: Kim Menikh/Unsplash



Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert