Das Unternehmen OpenAI hat interne Sicherheitsmaßnahmen verschärft, nachdem Hinweise auf mögliche Industriespionage aufgetaucht sind. Das berichtete die Financial Times unter Berufung auf informierte Quellen. Die Website Imowell.de berichtet unter Berufung auf TechCrunch.
Auslöser für die neuen Richtlinien war die Veröffentlichung eines konkurrierenden Sprachmodells durch das chinesische Start-up DeepSeek im Januar 2025. OpenAI vermutet, dass dabei sogenannte „Distillation“-Technologien eingesetzt wurden, mit denen sich das Verhalten großer KI-Modelle ohne Zugriff auf deren Quellcode nachbilden lässt.
Zu den Maßnahmen gehört eine neue „Informationszelt-Politik“, die den Zugang zu sensiblen Daten einschränkt. Beim Projekt o1 war der Zugang auf offiziell zugewiesene Teammitglieder beschränkt. Auch innerhalb der Büroräume durften Inhalte nur in geschlossenen Gruppen besprochen werden.
Technologien von OpenAI werden nun auf vom Internet getrennten Geräten isoliert. Zusätzlich wurden biometrische Zugangskontrollen wie Fingerabdruck-Scans eingeführt. Jede Internetverbindung erfordert nun eine gesonderte Genehmigung.
Außerdem wurden die physischen Sicherheitsmaßnahmen in Rechenzentren verstärkt und das Team für Cybersicherheit erweitert.
Auch wenn OpenAI offiziell keine Details zu den Änderungen mitteilt, zielen die Maßnahmen sowohl auf den Schutz geistigen Eigentums als auch auf die Minimierung interner Risiken ab.
Zuvor war bekannt geworden, dass OpenAI eine Vereinbarung mit Google über die Nutzung von Cloud-Infrastruktur getroffen hatte – trotz des Wettbewerbsverhältnisses der beiden Unternehmen.