Von Sofortübersetzungen über Ideenfindung bis hin zum vollständigen Verfassen von E-Mails und Texten: ChatGPT hält Einzug in unser tägliches Leben. Es gibt jedoch einige Nachteile und Einschränkungen, die ChatGPT und die KI im Allgemeinen daran hindern, ihr volles Potenzial zu entfalten. Wir glauben, dass eine ereignisgesteuerte Architektur den Informationsfluss zwischen solchen Systemen verbessern kann, die Ereignisse "veröffentlichen", und denen, die Informationen empfangen beziehungsweise "abonnieren".
Die Entwicklung von Anwendungen mit EDA trägt dazu bei, interne Funktionen miteinander zu verbinden und reaktionsfähig zu machen. Das bedeutet, dass EDA Anfragen entgegennimmt und bearbeitet, wenn ChatGPT aufgerufen wird. So lassen sich Reaktionszeiten verkürzen und der Energieverbrauch reduzieren. Für B2B- und B2C-Unternehmen ergeben sich neue Chancen im E-Commerce (Lesen Sie auch: So hilft ChatGPT Shop-Betreibern). Und so funktioniert es.
Automatische Antworten durch Straffung des Frage-Antwort-Zyklus
Heute funktioniert ChatGPT auf eine Art und Weise, die wir Techniker "Frage/Antwort" nennen. Man könnte auch sagen: Bittet und ihr werdet bekommen. Stellen Sie sich vor, ChatGPT könnte Ihnen proaktiv etwas schicken, von dem das System weiß, dass es Sie interessiert!
Nehmen wir an, Sie verwenden ChatGPT, um To-dos aus einem Zoom-Meeting zusammenzufassen und zu notieren. Statt dass jeder Teilnehmer um die Notizen bitten muss, würde eine EDA es ChatGPT überlassen, die Notizen an alle Teilnehmenden gleichzeitig zu senden, auch an diejenigen, die das Meeting verpasst haben. Alle wären automatisch und sofort auf dem neuesten Stand der Besprechungsergebnisse. ChatGPT würde proaktiv eine Nachricht an alle Empfänger senden, statt im Laufe der Zeit eine Reihe von Frage/Antwort-Interaktionen zu verarbeiten. Für die Benutzer würde sich die Servicequalität verbessern.
Jede Gruppenaktivität, die von ChatGPT unterstützt wird und dieselben Vorschläge benötigt, kann von einer solchen Funktion profitieren. Das gilt etwa für Entwicklerteams, die gemeinsam an einer Codebasis arbeiten. Statt dass ChatGPT jedem Entwickler in seiner integrierten Entwicklungsumgebung (IDE) Änderungen und Verbesserungen vorschlägt, könnte die IDE die Vorschläge "abonnieren". Die zugrundeliegende EDA-Technologie wäre dann in der Lage, die Empfehlungen an alle registrierten Entwickler weiterzuleiten, wenn sie die Codebasis veröffentlichen.
Energieverbrauch von ChatGPT senken - durch intelligente Ressourcennutzung
ChatGPT ist bekanntlich ressourcenintensiv und daher teuer in der Verarbeitung. Und es benötigt eine Menge spezieller Chips, die sogenannten Grafikprozessoren (GPUs). Die hohe Auslastung der GPUs - derzeit schätzungsweise knapp 29.000 - die für das Training des ChatGPT-Modells und die Verarbeitung von Benutzeranfragen erforderlich sind, verursacht erhebliche Kosten, die schätzungsweise zwischen 0,11 und 0,36 Dollar pro Anfrage liegen.
Und dann sind da noch die Umweltkosten des Modells. Der hohe Stromverbrauch der GPUs trägt zur Energieverschwendung bei. Data Scientists schätzen den täglichen CO2-Fußabdruck von ChatGPT auf 23,04 Kilogramm CO2-Äquivalente (CO2e), was in etwa dem anderer großer Sprachmodelle wie BLOOM entspricht.
Der Bericht weist jedoch darauf hin, dass "die Schätzung des täglichen CO2-Fußabdrucks von ChatGPT zu hoch sein könnte, sollte es den OpenAI-Ingenieuren gelingen, Anfragen auf intelligentem Wege effizienter zu verarbeiten." Es gibt also Raum für Verbesserungen bei der CO2-Bilanz. Hier kann eine ereignisgetriebene Architektur tatsächlich helfen: Durch ihre Implementierung kann ChatGPT seine Ressourcen besser nutzen, indem Anfragen nur dann bearbeitet werden, wenn sie eingehen, statt ständig zu laufen.
Erhöhen Sie die Verfügbarkeit von ChatGPT trotz Kapazitätsüberlastung
ChatGPT muss eine große Zahl von Benutzeranfragen verarbeiten. Die Beliebtheit, das schnelle Wachstum und die Unvorhersehbarkeit führen dazu, dass der Bot oft überfordert ist, mit der unbeständigen und "sprunghaften" Nachfrage umzugehen. Fehlermeldungen wie "Sorry, wir können Ihnen gerade nicht helfen", sind häufig zu sehen - sowohl für Premium- als auch für kostenlose ChatGPT-Benutzer.
Die vielen Ausfälle von ChatGPT zeigen, wie überlastet das System ist, wenn es darum kämpft, schnell zu skalieren, um den ständig wachsenden Datenverkehr zu bewältigen und mit Rivalen wie Google Bard zu konkurrieren. Bei Ausfällen könnte eine EDA Anfragen puffern und sie asynchron über mehrere ereignisgesteuerte Microservices abarbeiten, sobald der ChatGPT-Dienst wieder verfügbar ist. Bei entkoppelten Diensten führt der Ausfall eines Dienstes nicht zum Ausfall der anderen.
Der Event-Broker, eine Schlüsselkomponente der ereignisgesteuerten Architektur, ist ein statusabhängiger Vermittler, der als Puffer fungiert, indem er Ereignisse speichert und dann weiterleitet, wenn der Dienst wieder online ist. Aus diesem Grund können Service-Instanzen schnell hinzugefügt werden, ohne dass dies zu Ausfallzeiten des gesamten Systems führt. Das verbessert die Verfügbarkeit und Skalierbarkeit.
Mit EDA-Unterstützung können Benutzer von ChatGPT-Diensten jederzeit die gewünschten Informationen anfordern, und ChatGPT kann ihnen die Ergebnisse senden, sobald sie vorliegen. Das stellt sicher, dass die Benutzer eine Anfrage nicht mehrfach eingeben müssen, um eine generierte Antwort zu erhalten. So lassen sich die Skalierbarkeit verbessern und Antwortzeiten verkürzen.
Integrieren Sie ChatGPT in Ihre Geschäftsprozesse!
Der Markt für KI im E-Commerce soll bis 2032 ein Volumen von 45,72 Milliarden US-Dollar erreichen. Es überrascht daher nicht, dass führende E-Commerce-Unternehmen beginnen, auch ChatGPT in ihre Geschäftsprozesse zu integrieren. So hat beispielsweise Shopify auf Basis von ChatGPT einen Einkaufsassistenten entwickelt, der den Nutzern Produkte empfiehlt, indem er ihre Suchmaschinenanfragen analysiert.
Eine EDA bietet das Potenzial, das Einkaufserlebnis noch weiter zu verbessern. B2C- und B2B-Unternehmen können mehr über ihre Kunden erfahren, indem sie Schlüsselereignisse von ihren E-Commerce-Plattformen in größerem Maßstab verfolgen. Die Unternehmen können Muster im Kundenverhalten erkennen, zum Beispiel welche Artikel in bestimmten Regionen am profitabelsten sind und welche Faktoren Kaufentscheidungen beeinflussen. Diese Informationen können dann an einen Datenspeicher gesendet werden, damit das maschinelle Lernmodell von ChatGPT das Kundenverhalten vorhersagen und personalisierte Produktempfehlungen geben kann. Und das ist erst der Anfang der Entwicklung solcher Modelle auf Basis von ChatGPT.
Globale Nutzeranforderungen abdecken
Da ChatGPT und darauf basierende Anwendungen eine globale Nutzerbasis haben, ist es wichtig, dass Nutzer die Daten Ihrer GPT-Abfragen effizient verteilen. Ein Event-Mesh ist die perfekte Architektur, um diese Anforderung zu erfüllen.
Ein Event-Mesh ist eine Architekturschicht, die aus einem Netzwerk von Event-Brokern besteht und es ermöglicht, dass Ereignisse von einer Anwendung zu anderen Anwendungen gesendet und von ihr empfangen werden können, ganz egal wo die Anwendungen eingesetzt werden. Auf diese Weise lassen sich Daten dynamisch an interessierte Teilnehmer weiterleiten, statt dass ChatGPT-Ergebnisse an alle Anwendungen gesandt und anschließend durch eine Anwendungslogik gefiltert werden. Das verbessert die Benutzerfreundlichkeit und spart Rechen- und Netzwerkressourcen.
ChatGPT mag noch in den Kinderschuhen stecken, aber die rasche Akzeptanz durch die Nutzer und die regelmäßigen Ankündigungen neuer Funktionen deuten darauf hin, dass diese Geschichte gerade erst beginnt. Ganz gleich, ob es darum geht, Serviceausfälle und übermäßigen Energieverbrauch zu beheben, die Skalierbarkeit, Ausfallsicherheit und Flexibilität zu erhöhen oder neue Geschäftsanwendungen für B2B- und B2C-Unternehmen bereitzustellen: Eine EDA kann dem GenAI-Tool helfen, seine Erfolgsbilanz weiter zu verbessern. (hv)