Zunächst 70 Partner
Die ersten Plugins für ChatGPT
"Wir beginnen mit einer kleinen Gruppe von Nutzern und werden den Zugang schrittweise erweitern (…)", heißt es im Firmenblog. "Wir freuen uns darauf, eine Community aufzubauen, die die Zukunft des Paradigmas der Mensch-KI-Interaktion mitgestaltet."
Die ersten von 70 Plugins wurden von Expedia, FiscalNote, Instacart, KAYAK, Klarna, Milo, OpenTable, Shopify, Slack, Speak, Wolfram Alpha und Zapier erstellt. Beispielsweise erhalten zahlende Nutzer von ChatGPT Plus (20 Dollar/Monat) automatisierten Echtzeit-Zugriff auf Reiseinformationen von Expedia und KAYAK, auf politische und regulatorische Infos von FiscalNote oder auf die Angebote lokaler Lebensmittelgeschäfte bei Instacart.
OpenAI führt auch Code Interpreter ein
OpenAI selbst hostet ebenfalls zwei Plugins, einen Webbrowser und einen Code-Interpreter. Mit dem Interpreter lässt sich Code nicht nur erstellen, wie es etwa mit ChatGPT, Google Bard oder Microsoft Copilot möglich ist, sondern auch gleich ausführen. Beispielsweise lassen sich mit Eingaben in allgemein verständlicher Sprache größere Datenmengen auswerten oder auch Grafiken erstellen. Ebenso hat das Unternehmen den Code für ein Wissensdatenbank-Plugin freigegeben, so dass Entwickler selbst Plugins erstellen können.
Laut OpenAI sind Large Language Models (LLMs) heute zwar für viele Aufgaben nützlich, aber immer noch begrenzt in ihrem Wissen. Momentan könnten sie nur aus Trainingsdaten lernen. Mit den Plugins weite sich der Scope aus: Sie könnten "Augen und Ohren für Sprachmodelle sein" und ihnen Zugang zu Informationen geben, die zu aktuell, zu persönlich oder zu spezifisch sind, um in klassischen Trainingsdaten enthalten zu sein.
OpenAI glaubt zudem, dass sich offene Standards herausbilden werden, um die Art und Weise zu vereinheitlichen, in der Anwendungen KI-bezogene Schnittstellen bereitstellen. Das Unternehmen arbeite selbst an einem solchen ersten Standard.
Inhärente Probleme von Generative AI sollen beseitigt werden
Mit Plugins ließen sich auch die inhärenten Herausforderungen der großen Sprachmodelle bewältigen. Dazu gehöre etwa die Neigung zu +"Halluzinationen" sowie Probleme, die beim Einbinden aktueller Ereignisse und beim genehmigten Zugriff auf geschützte Informationsquellen entstehen. "Durch die Integration des Zugriffs auf externe Daten - zum Beispiel aktuelle Online-Informationen, Code-basierte Berechnungen oder benutzerdefinierte Informationen - können Sprachmodelle ihre Antworten durch evidenzbasierte Referenzen verbessern", so der Anbieter.
Diese Referenzen erhöhten den Nutzen des Modells. Zudem ermöglichten sie es den Anwendern, die Vertrauenswürdigkeit von Modellergebnissen besser einzuschätzen und ihre Genauigkeit zu überprüfen. Dadurch würden Risiken, die aus zu starkem Vertrauen resultierten, potenziell gemindert. Letztendlich würden Plugins den Nutzern in einer Vielzahl neuer Anwendungsfälle helfen - etwa beim Durchsuchen von Produktkatalogen bis hin zur Buchung von Flügen oder zur Bestellung von Lebensmitteln.
Allerdings ist der Einsatz von Plugins laut OpenAI nicht frei von Risiken: So könnten Plugins Sicherheitsprobleme verschärfen, indem sie schädliche oder unbeabsichtigte Aktionen ausführen. Bösartige Akteure könnten damit in die Lage versetzt werden, andere effektiver zu betrügen oder in die Irre zu führen. Durch die Vergrößerung des Spektrums an unterstützten Anwendungen könnten Plugins ferner das Risiko erhöhen, dass ein Modell in neuen Umfeldern missbräuchlich eingesetzt werde. "Vom ersten Tag an haben wir uns bei der Entwicklung unserer Plugin-Plattform von diesen Faktoren leiten lassen und mehrere Sicherheitsvorkehrungen getroffen", versichert KI-Spezialist OpenAI.
Die Sicherheitsrisiken sind beträchtlich
So habe man beispielsweise Red-Teaming-Übungen durchgeführt, um eine eine Reihe möglicher bedenklicher Szenarien aufzudecken. In die Übungen seien sowohl interne als auch externe Mitarbeiter involviert gewesen. So sei entdeckt worden, wie Plugins - wenn sie ohne Sicherheitsvorkehrungen veröffentlicht werden - eine ausgeklügelte Prompt-Injection durchführen oder betrügerische E-Mails versenden können. Des Weiteren könnten sie Sicherheitsbeschränkungen umgehen und auch an das Plugin gesendete Informationen missbrauchen. OpenAI will anhand dieser Erkenntnisse Sicherheitsmaßnahmen entwickeln, um schädliche Plugin-Verhaltensweisen einzuschränken.
Laut OpenAI sind Plugins eine massive Neuerung, die "wahrscheinlich weitreichende Auswirkungen auf die Gesellschaft haben" werden. Das Unternehmen hat vor kurzem ein Arbeitspapier veröffentlicht, das zu dem Ergebnis kommt, dass Sprachmodelle mit Zugang zu diversen Werkzeugen sehr viel größere wirtschaftliche Auswirkungen haben werden als andere. Man sei daran interessiert, mit externen Forschern und Kunden zusammenzuarbeiten, um diese Auswirkungen zu untersuchen.