Laut Sam Altman, CEO von OpenAI, nutzen rund 10 Prozent der Weltbevölkerung – etwa 800 Millionen Menschen – Systeme des Unternehmens. OpenAI plant nun, einige dieser Nutzer durch einen Verifizierungsprozess zu überprüfen, der den Zugang zu erweiterten Modellen und Funktionen auf der Plattform freischaltet[1]OpenAI to introduce IDV screening for organizations[2]API Organization Verification
Der Verifizierungsprozess, genannt „Verified Organization“, erfordert einen gültigen, staatlich ausgestellten Ausweis aus einem Land, das von OpenAI unterstützt wird. Jeder Ausweis kann innerhalb von 90 Tagen nur zur Verifizierung einer Organisation verwendet werden, und nicht alle Organisationen qualifizieren sich dafür.
Laut Forrester wird die Identitätsüberprüfung wahrscheinlich erfordern, dass sich Entwickler mit einem von der Regierung ausgestellten Lichtbildausweis aus zulässigen Ländern digital verifizieren und ihre Zugehörigkeit zu ihrer Organisation nachweisen[3]OpenAI Requires Identity Verification For Access To Its Latest Models.
Forrester geht davon aus, dass die Gründe für die Entscheidung von OpenAI folgende sind:
- Die Möglichkeit, böswillige oder abtrünnige Entwickler mit Sitz in einem bestimmten Land von APIs für Modelle auszuschließen.
- Die Bindung von Entwicklern an nur eine Kundenorganisation, um sicherzustellen, dass ein Entwickler nur im Namen einer Organisation auf OpenAI-Modelle zugreift (dies hilft bei der Überprüfung von Organisationen).
- Bessere Durchsetzung von Ratenbeschränkungen für Modelle.
- Schutz von OpenAI-Modellen vor IP-Diebstahl.
- Die Notwendigkeit, echte Identitäten mit Aufforderungen und Modellantworten zu korrelieren, die durch die genAI-Leitplanken schlüpfen (z.B. die Frage nach Anweisungen, wie man Terrorakte begeht). Dies ist besonders wichtig, da sich große Sprachmodelle (LLMs) von der textbasierten Eingabe-Ausgabe auf neue Modalitäten (Audio, Bild, Video) ausweiten.
Diese Maßnahme folgt der Ankündigung, dass OpenAI Konten von Nutzern aus China und Nordkorea entfernen wird, die die Technologie für schädliche Zwecke wie Überwachung und Einflussnahme nutzen. OpenAI betont, dass nur eine kleine Gruppe von Entwicklern absichtlich gegen die Nutzungsrichtlinien verstößt und dass der Verifizierungsprozess dazu dient, unsichere Anwendungen von KI zu verhindern.
Das Unternehmen, das Technologien wie ChatGPT, DALL-E und Sora entwickelt, hat bereits eine Sanktionenkontrolle mit Hilfe des Identitätsverifizierungsanbieters Persona eingeführt. OpenAI nutzt Persona, um neue Anmeldungen gegen internationale Sanktionslisten zu überprüfen und gegebenenfalls weitere Verifizierungen und manuelle Überprüfungen anzustoßen[4]OpenAI uses Persona to screen millions of users each month with zero friction.