Das KI-Unternehmen OpenAI hat am Montag das Video-Generierungsprogramm Sora für seine Kunden veröffentlicht. OpenAI möchte bei der Regulierung von KI-generierten Videos eine führende Rolle einnehmen.
Sora verarbeitet schriftliche Eingaben und erstellt digitale Videos von bis zu 20 Sekunden Länge. Die Beta-Version wurde im Februar vorgestellt, nun gibt es Sora als eigenständiges Produkt.
„Die Welt sollte nicht nur aus Text bestehen. Wenn KI-Systeme nur mit Text interagieren, verpassen wir etwas Wichtiges“, sagte OpenAI-CEO Sam Altman am Montag in einer Live-Übertragung.
In einem Blogbeitrag erklärte das Unternehmen, dass es die Einführung der Technologie nutzen möchte, um Kultur und Regeln für den Umgang mit KI-generierten Videos zu prägen. „Wir stellen unsere Video-Generierungstechnologie jetzt vor, damit die Gesellschaft ihre Möglichkeiten erkunden und gemeinsam Normen und Schutzmaßnahmen entwickeln kann, die eine verantwortungsvolle Nutzung sicherstellen“, so OpenAI.
Was kann Sora?
Sora nutzt ein „tiefes Verständnis von Sprache“, um Eingaben zu interpretieren und Videos mit „komplexen Szenen“ zu erstellen. Die Videos können bis zu einer Minute lang sein und enthalten mehrere Charaktere, Kamerafahrten, präzise Bewegungen und detailreiche Szenen.
Während der Beta-Phase zeigte OpenAI Beispiele wie animierte Monster, Kängurus oder realistische Videos von Menschen. Dazu gehörte eine Frau, die durch Tokio läuft, oder ein filmischer Trailer eines Astronauten auf einer Salzwüste.
OpenAI räumte jedoch ein, dass das Programm noch Einschränkungen hat. „Es generiert oft unrealistische Physik und hat Schwierigkeiten mit komplexen Aktionen über längere Zeiträume“, hieß es im Blogbeitrag.
Maßnahmen gegen missbräuchliche Nutzung
Kritiker warnen vor Missbrauchsmöglichkeiten von KI-Technologie und verweisen auf Deepfake-Beispiele wie manipulierte Aussagen von Präsident Joe Biden oder AI-generierte, anstößige Bilder von Taylor Swift.
OpenAI betonte, dass es Einschränkungen für das Hochladen von Personen gibt, diese aber gelockert werden sollen, sobald die Schutzmaßnahmen gegen Deepfakes verbessert sind.
„Unsere oberste Priorität ist es, besonders schädlichen Missbrauch zu verhindern, wie die Erstellung von kinderpornografischem Material (CSAM) oder sexuellen Deepfakes. Dafür setzen wir auf Blockierung, Filterung, Überwachung und fortschrittliche Erkennungstools. Fälle von CSAM oder Gefährdung von Kindern melden wir an das National Center for Missing & Exploited Children (NCMEC)“, erklärte das Unternehmen.
Alle von Sora erstellten Videos enthalten standardmäßig C2PA-Metadaten und Wasserzeichen, damit sie als KI-generierte Inhalte erkennbar sind.