OpenAI o1

OpenAI stellt neues KI-Modell vor

13.09.2024
Die neue Software des ChatGPT-Erfinders OpenAI beherrscht komplexe Argumentationsketten und ist vor allem bei der Lösung mathematischer Problem stark. Außerdem soll "OpenAI o1" eigene Fehler korrigieren können.
Bei mehreren für Menschen gedachten Tests und Prüfungen schnitt OpenAI o1 deutlich besser ab als ChatGPT.
Bei mehreren für Menschen gedachten Tests und Prüfungen schnitt OpenAI o1 deutlich besser ab als ChatGPT.
Foto: OpenAI

Der ChatGPT-Entwickler OpenAI hat ein neues KI-Modell vorgestellt, das komplexere Aufgaben als bisherige Chatbots lösen kann. Die Software mit dem Namen o1 verbringe mehr Zeit mit "Nachdenken", bevor sie eine Antwort gibt - "so wie eine Person es machen würde". Die Künstliche IntelligenzKünstliche Intelligenz probiere dabei verschiedene Ansätze aus und erkenne und korrigiere ihre eigenen Fehler, erläutert OpenAI in einem Blogeintrag. Alles zu Künstliche Intelligenz auf CIO.de

Das zeige unter anderem bei Mathematik und dem Programmieren von Software Wirkung. So habe das o1-Modell 83 Prozent der Aufgaben der Prüfung für die Internationale Mathematik-Olympiade gelöst. Das aktuelle ChatGPT-4o sei lediglich auf 13 Prozent gekommen.

Bei dem neuen Modell fehlten jedoch noch viele nützliche Funktionen von ChatGPT. So könne es nicht im Web nach Informationen suchen und unterstütze auch das Hochladen von Dateien und Bildern noch nicht. Zudem sei es langsamer. Aus Sicht von OpenAI kann das neue Modell Forschern etwa bei der Datenanalyse oder Physikern bei komplexen mathematischen Formeln helfen.

Problem der "Halluzinationen" nicht gelöst

Aus weiteren, von OpenAI vorgelegten Unterlagen geht hervor, dass das neue Modell bei einer Testauswahl von 100.000 Anfragen in 0,38 Prozent der Fälle wissentlich eine falsche Antwort gab. Das sei vor allem passiert, wenn OpenAI o1 darum gebeten worden sei, auf Artikel, Websites oder Bücher zu verweisen.

Das war ohne Zugang zur Internet-Suche in vielen Fällen nicht möglich. So erfand die Software plausibel aussehende Beispiele. Die sogenannten "Halluzinationen", bei denen KI-Software Informationen einfach erfindet, sind generell ein bisher ungelöstes Problem. (dpa/rs/pma)

Zur Startseite