Wann kommt GPT-4?
ChatGPT-Erfinder bremst Euphorie
GPT-4 werde herauskommen, wenn das Sprachmodell sicher und vertrauenswürdig funktioniere, sagte Altman in einem Interview mit StrictlyVC, einem Nachrichtendienst, der sich mit der Venture-Capital-Szene im Silicon Valley beschäftigt. Es gebe bis dato keine konkreten Zeitpläne. Der Manager will Gerüchte entkräften, wonach GPT-4 sämtliche KI-SuperlativeKI-Superlative schlagen werde, bis hin zu einer menschenähnlichen Intelligenz. Alles zu Künstliche Intelligenz auf CIO.de
Die aktuelle Version GPT-3, beziehungsweise die erweiterte Variante 3.5, sorgt derzeit als ChatGPT für viel Furore. Das KI-Modell kann auf einfache in natürlicher Sprache verfasste Anweisungen hin verschiedenste Inhalte kreieren, von Texten über Softwarecode bis hin zur Sprachausgabe eines Smart-Home-Assistenten.
Diese Möglichkeiten regen offenbar die Fantasie über die Fähigkeiten des Nachfolgers an. Angeblich soll GPT-4 mit 100 Billionen Parametern trainiert werden und in der Lage sein, ganze Bücher zu verfassen. Zum Vergleich: Das Vorgängermodell GPT-3 wurde anhand von 175 Milliarden Datenpunkten trainiert.
"Die Leute betteln darum, enttäuscht zu werden"
"Das ist alles völliger Blödsinn", sagte OpenAI-Chef Altman. Die GPT-4-Gerüchteküche sei einfach nur lächerlich. "Ich weiß nicht, woher das alles kommt", so der Manager. "Die Leute betteln darum, enttäuscht zu werden, und das werden sie auch." OpenAI habe keine wirkliche Artificial General Intelligence entwickelt, die menschlichen Fähigkeiten nahekomme, wie viele offenbar glaubten.
Altman deutete jedoch an, dass OpenAI an KI-Modellen arbeite, die auch Video-Inhalte erstellen können. "Das wird kommen", so der Manager, ohne jedoch konkret vorherzusagen, wann das sein wird. Andere Unternehmen wie Google und die Facebook-Mutter Meta arbeiten ebenfalls an entsprechenden Features für ihre KI-Lösungen.
Unterschiedliche regeln für KI-Einsatz
Altman nahm in dem Interview auch Stellung gegenüber Kritikern. Angesichts der Fähigkeiten von ChatGPT waren Rufe lauter geworden, die eine schärfere Regulierung des KI-Einsatzes verlangten, zumal auch die OpenAI-Modelle nicht gegen Verfälschungen durch rassistische oder sexistische Inhalte gefeit sind. Altman plädierte jedoch dafür, die Leitplanken nicht zu eng zu setzen. Wer absolut korrekte Modelle wolle, könne die auch bekommen. Wer jedoch kreativer mit KI umgehen möchte und auch Dinge akzeptiere, mit denen sich manche Leute vielleicht nicht wohlfühlten, der sollte auch diese Möglichkeiten haben. "Ich denke, es wird unterschiedliche Regelsysteme geben, die sich an den jeweiligen Wertvorstellungen orientierten."
Zur Diskussion über Missbrauch von ChatGPT, um etwa an Schulen und Universitäten mit künstlich erzeugten Arbeiten zu betrügen, sagte Altman, dass man sich mit den neuen Möglichkeiten schlichtweg abfinden müsse. Vielleicht könne man Lehrern helfen, Inhalte, die aus GPT-ähnlichen Systemen stammten, besser zu erkennen. Aber es werde immer Möglichkeiten geben, sie auszutricksen. "Wir leben jetzt einfach in einer neuen Welt", konstatierte der Manager. "An automatisch generierte Texte müssen wir uns alle gewöhnen, und das ist auch gut so." Altman vergleicht die Entwicklung mit dem Aufkommen der Taschenrechner. An diese hätten sich schließlich auch alle gewöhnt und man habe die Tests im Mathematikunterricht entsprechend geändert.