Gartner Hype Cycle 2020
Diese Technologien verändern Ihre Welt
Hype Cycle 2020: Formative Artificial Intelligence (AI)
Überhaupt spielt das Thema Künstliche Intelligenz (KI, auch Artificial Intelligence, AI) auch in diesem Jahr eine wichtige Rolle in Gartners Hype Cycle. Die Analysten fassen die Entwicklungen unter dem Begriff Formative AI zusammen. Darunter ist ein Set an Algorithmen und ergänzenden Techniken zu verstehen, die sich schnell und dynamisch an verschiedene Situationen anpassen lassen. In erste Linie dreht es sich dabei um die Entwicklung von neuen KI-Modellen beziehungsweise die Integration von AI-Funktionen in anderen Applikationen, um so den Einsatz von Künstlicher Intelligenz auf das gesamte Unternehmen auszuweiten.
Im Rahmen von AI-augmented Design sollen sich mit Hilfe von AI, ML und Natural Language Processing automatisch digitale Inhalte, Präsentations-Layer und Bildschirmansichten entwickeln lassen. Gartner beschreibt ein Szenario, in dem User dem AI-Tool sagen, dass sie einen Internet-Store haben möchten, welches Design dieser haben soll, und eventuell einige Referenzbeispiele nennen, die ihnen gut gefallen. Auf Basis dieser Informationen könnte Augmented AI innerhalb kürzester Zeit verschiedene Varianten eines Online-Auftritts entwickeln. Derartige Szenarien dürften gerade den Markt für Customer-Experience-(CX-)Produkte in den nächsten Jahren massiv verändern, glauben die Analysten.
In eine ähnliche Richtung zielt AI-augmented Development, nur dass es hier nicht um das Design von User oder Customer Experiences geht, sondern um Softwareentwicklung. Gerade angesichts der wachsenden Komplexität beim Bau neuer Softwareinfrastrukturen, stießen die klassischen Methoden mittlerweile an Grenzen, konstatiert Gartner. Zudem sei manuelle Arbeit auch immer fehleranfällig, was gerade in der Entwicklung von geschäftskritischen Applikationen zum Problem werden könne.
Abhilfe verspricht hier Künstliche Intelligenz. Entsprechende Tools könnten als eine Art virtueller Co-Entwickler fungieren beziehungsweise die Qualitätskontrolle übernehmen. Erste Prototypen funktionieren dergestalt, dass diese mit Hilfe von Deep Learning und NLP vorhersagen können, welchen Code der Entwickler im nächsten Schritt für sein Programm braucht.
Auch wenn sich AI-augmented Development bereits dem Hype-Cycle-Peak nähert, gibt es Gartner zufolge noch etliche Unwägbarkeiten rund um die Technologie. Bis dato lägen erst wenige Erkenntnisse darüber vor, wie verlässlich, stabil und skalierbar die Technik funktioniere. Wichtig sei darüber hinaus die Transparenz. Um den Resultaten zu vertrauen, müsse klar sein, wie das KI-Tool zu seinem Code komme. Zudem gelte es, Fragen rund um Urheberschutz und die Sicherheit zu klären.
Grundsätzlich wird es laut Gartner in den nächsten Jahren darum gehen, den AI-Einsatz in den Unternehmen breiter aufzufächern. Dabei helfen könnten unter anderem Technologien rund um Composite AI. Darunter verstehen die Analysten einen kombinierten Einsatz unterschiedlicher Werkzeuge wie regelbasierte Entscheidungs-Tools, Graph-Analysen, den Einsatz von Software-Agenten sowie verschiedene Optimierungstechniken.
Die Idee dahinter ist nicht neu, räumt Gartner ein. Es drehe sich jetzt aber darum, KI pragmatisch und schnell mit den passenden Werkzeugen für das jeweilige Einsatzgebiet an den Start zu bringen. Die Kunst bestehe darin, die Stärken und Schwächen der verschiedenen Werkzeuge richtig einzuschätzen und dementsprechend zu verwenden.
Kontrovers diskutiert wird der Einsatz von Generative AI. Dabei handelt es sich um Werkzeuge, die auf Basis von Datenanalysen neue Inhalte schaffen können wie beispielsweise Bilder oder Texte. So gibt es bereits ein neues Märchen im Stil der Gebrüder Grimm sowie diverse Gemälde, gemalt nach der Technik alter Meister wie Rembrandt oder van Gogh. Im bekannten Auktionshaus Christies in London kam bereits KI-produzierte Kunst unter den Hammer. Problematisch wird der Einsatz, wenn damit künstlich Inhalte geschaffen werden, die nicht als Fake gekennzeichnet sind, aber politische, gesellschaftliche oder wirtschaftliche Entwicklungen beeinflussen oder sogar in eine bestimmte Richtung zu manipulieren versuchen.
Aktuell wird in Sachen Generative AI viel experimentiert. Die Werkzeuge benötigen große Mengen an Trainingsdaten und viel manuelles Tuning. Interessant für den Unternehmenseinsatz könnte die Technik im Zuge von Generative Adversarial Networks (GANs) werden. Dabei könnte KI neue Inhalte wie Bilder, Videos, Texte oder Musik kreieren. Darüber hinaus ließen sich im Zuge von Simulationen Umgebungen für die Entwicklung neuer Medikamente und Materialien mit bestimmten Eigenschaften bauen. Auch Trainingslandschaften beispielsweise für das autonome Fahren sind vorstellbar.
Der Bereich Formative AI in Gartners Hype Cycle umfasst noch weitere Technologien. Dazu zählen Small Data, also den Datenverbrauch beim Training von KI-Systemen möglichst gering und damit auch effizient zu halten. Adaptive Machine Learning beschreibt Techniken, mit deren Hilfe sich Algorithmen auch im laufenden Betrieb weiterentwickeln und nicht nur während einer dedizierten Trainingsphase vor dem Einsatz.
Damit ließen sich entsprechende Techniken auch schneller entwickeln. Self-supervised Learning zielt darauf ab, Machine-Learning-Algorithmen in die Lage zu versetzen, wie der Mensch durch eigene Beobachtungen zu lernen. Bis dato müssen entsprechende Techniken manuell angelernt werden. Am weitesten fortgeschritten in der aktuellen Gartner-Kurve sind Ontologien und Graphen. Dabei geht es darum, Daten und Wissen auf eine neue Art und Weise miteinander in Beziehung zu setzen – nicht mehr starr und hierarchisch, sondern flexibel und sich selbst organisierend. Das soll die Suche nach relevanten Informationen und das Content Management in den Unternehmen erleichtern.
Emerging Technologies 2020: Algorithmic Trust
Gartner stellt in diesem Jahr auch die Vertrauensfrage hinsichtlich digitaler Techniken. Algorithmic Trust bildet 2020 einen separaten Technologie-Block. Der Verlust von Millionen persönlicher Datensätze, voreingenommene AI-Modelle, die bestimmte Bevölkerungsgruppen diskriminieren, und eine regelrechte Flut an gefälschten Nachrichten und Videos im Netz hat das Vertrauen vieler Menschen in Digitaltechniken erschüttert.
Als Reaktion darauf entwickle sich derzeit eine neue Vertrauensarchitektur, die die Verantwortung für einen vertrauensvollen Umgang mit Daten und Identitäten von Menschen und Organisationen auf Algorithmen überträgt. Algorithmische Vertrauensmodelle sollen herkömmliche Vertrauensmodelle ersetzen, die mit Menschen oder Organisationen verbunden sind und für einen besseren Schutz von Daten und mehr Sicherheit im Netz sorgen.
Eine Technik, die dafür derzeit oft ins Spiel gebracht wird, ist Secure Access Service Edge (SASE). Der Begriff beschreibt eine neue Sicherheitsarchitektur, in der Security als Service gedacht und ausgeliefert wird. Dreh- und Angelpunkt für den Grad der Absicherung bilden Identitäten. Das können Nutzer, aber auch Endgeräte wie das Notebook zuhause oder ein IoT-Device in der Fabrikhalle sein. Infolgedessen dürften sich die klassischen Netzwerk-Sicherheitslösungen in den kommenden Jahren massiv verändern, sagt Gartner. Echte SASE-Services seien Cloud native, dynamisch skalierbar, global verfügbar, in der Regel als Microservices konzipiert und Multitenant-fähig.
Angesichts des breiten Anforderungsprofils sei die Zahl kompletter SASE-Lösungen am Markt derzeit noch überschaubar, konstatieren die Analysten. Das dürfte sich jedoch bald ändern, heißt es unter Verweis auf zahlreiche Ankündigungen der Hersteller aus den zurückliegenden Monaten. Gleiches gilt für die Akzeptanz seitens der Anwender. Bis 2024 würden 40 Prozent der Unternehmen weltweit eine SASE-Strategie verfolgen – Anfang 2019 sei es gerade einmal ein Prozent gewesen. Die Vorteile der neuen Architektur lägen darin, dass sich mit der Technik die veränderten Security-Anforderungen der digitalen Transformation passgenauer abbilden ließen.
Gerade die Coronakrise habe dies den Verantwortlichen auf drastische Weise vor Augen geführt. Mit dem Wechsel von Millionen Angestellten in die Homeoffices hätten sich quasi über Nacht auch die Rahmenbedingungen in Sachen IT-Sicherheit umgedreht. An dieser Stelle schnell reagieren zu können, wird künftig ein elementarer Aspekt eines widerstandsfähigen Unternehmens sein.
Wenn immer mehr Entscheidungen AI-gestützt fallen, muss das Vertrauen in die Technik zu hundert Prozent gewährleistet sein. Immer wieder haben in den vergangenen Jahren Fälle für Schlagzeilen gesorgt, in denen Algorithmen mit Daten angelernt wurden, die die Ergebnisse tendenziös in eine bestimmte Richtung gelenkt haben. Die Diskriminierung von Minderheiten oder bestimmter Bevölkerungsgruppen hat das Vertrauen in AI massiv beeinträchtigt.
Das soll sich Gartner zufolge mit Hilfe von Explainable AI ändern. Entsprechende Techniken sollen dafür sorgen, dass die Black Box, wie AI zu ihren Ergebnissen kommt, transparenter wird. Damit soll klar ersichtlich sein, welche Stärken und Schwächen ein AI-Modell hat, und wie die Algorithmen funktionieren. Gerade in reglementierten Branchen wie dem Finanzsektor wird es für die Unternehmen zudem zur Pflicht, nachweisen zu können, wie die von ihnen verwendete AI rechnet.
Explainable AI hat den Gipfel der überzogenen Erwartungen überschritten und befindet sich auf dem Weg ins Tal der Enttäuschungen. Das hat Responsible AI noch vor sich. Die Technik steht kurz vor dem Peak, an der Stelle, an der Explainable AI vor einem Jahr stand. Darunter fassen die Analysten Technologien zusammen, die einen regelkonformen und ethisch korrekten Einsatz von AI über die gesamte Unternehmensorganisation hinweg gewährleisten sollen. Das betrifft Aspekte wie Vertrauen, Transparenz, Fairness, Erklärbarkeit, Sicherheit und Privacy, aber auch die Frage nach dem wirtschaftlichen und sozialen Wert des KI-Einsatzes.
Das größte Problem bei der Einführung der AI ist derzeit das Misstrauen in die Lösungen und das geringe Vertrauen in die positiven Auswirkungen von AI, konstatiert Gartner. Mittlerweile haben sich viele Unternehmen und Organisationen zu Prinzipien à la Responsible AI verpflichtet. Dazu zählen IT-Anbieter wie Accenture, Google und Microsoft, genauso wie viele Regierungen und Behörden sowie Anwenderunternehmen wie AXA, die Bank of America und Telefonica.
Gerade mit Blick auf die Ausbreitung von COVID-19 wird klar, wie wichtig dieser Technologieblock ist und noch werden wird. Wenn Behörden mit Hilfe von KI Vorhersagen treffen, wie sich die Pandemie entwickeln wird, und entsprechende Maßnahmen einleiten, um einer Ausbreitung Einhalt zu gebieten, muss für alle Betroffenen klar sein, wie und warum diese Entscheidungen gefallen sind.
Ganz am Anfang des Hype Cycle steht in diesem Jahr Authenticated Provenance. Damit beschreiben die Gartner-Analysten Techniken, mit denen die Herkunft von Assets, die per Blockchain verfolgt werden, sicher geprüft werden kann. Dabei geht es darum, zu verhindern, dass falsche Informationen in die Blockchain hineinfließen: Garbage in – Garbage forever, warnen die Analysten.
Da in einer Blockchain Informationen nicht mehr verändert und manipuliert werden können – das ist der grundlegende Sicherheitsvorteil einer Blockchain – muss umso genauer darauf geachtet werden, mit welchen Informationen eine Blockchain startet. Gartner rechnet in den kommenden Jahren mit einer stärkeren Akzeptanz der Distributed-Ledger-Technologie. Daher müssten sich die Unternehmen stärker mit Authenticated Provenance beschäftigen.
Rund um Identitäten hat Gartner zwei Technologien ausgemacht, die in Zukunft ebenfalls wichtiger werden dürften. Im Zuge von Differential Privacy sprechen sie von einem System, in dem Datensätze mit sensiblen persönlichen Daten so verschleiert werden, dass sie zwar für Analysen verwendet werden können, aber keine Rückschlüsse auf bestimmte Personen zulassen. Unternehmen arbeiten mit Hochdruck daran, mehr Geschäft mit ihren Daten zu machen.
Da es sich dabei aber vielfach um sensible Daten handelt, die durch Regulatorien wie die DSGVO geschützt sind, können Techniken wie Differential Privacy helfen, diese trotzdem zu verwenden. Dabei werden mit Hilfe von Algorithmen „Störungen“ in die Datensätze eingearbeitet, die eine Analyse nicht behindern, aber Rückschlüsse auf bestimmte Personen verschleiern.
Weit fortgeschritten im Hype Cycle und schon fast angekommen im Tal der Enttäuschung ist Bring Your Own Identity. Hier dreht es sich um die Verwendung von externen digitalen Identitäten wie einem Facebook-Account oder einer Banking-Identität, um Zugang zu anderen digitalen Services zu bekommen. Gartner zufolge sind gerade in den zurückliegenden Jahren viele verschiedene Optionen neu hinzugekommen, sich eine digitale Identität anzuschaffen. Infolgedessen warnen die Analysten vor einem Wildwuchs aus nicht miteinander kompatiblen Techniken.
- 2005
Bereits 2005 sieht Gartner das Thema "Augmented Reality" als ein mittelfristig wichtiges an und sagt voraus, dass es binnen fünf bis zehn Jahren - also spätestens 2015 - seinen Höhepunkt in der öffentlichen Wahrnehmung erreichen werde. - 2006
Der Tablet-PC macht sich 2006 auf seinen Weg durch den Trend-Zyklus und verschwindet erst 2010, nachdem Apple das erste iPad vorstellt und ihn damit zu einem Massenprodukt macht. - 2007
In diesem Hype Cycle taucht erstmals der 3D-Druck auf, der sich heute langsam auf dem Weg in die breite Anerkennung befindet. - 2008
Es beginnt die Zeit des Cloud Computing - kaum ein anderer Begriff wird die IT-Branche in den folgenden Jahren so prägen. Heute - sechs Jahre später - ist die Wolke im "Tal der Desillusionierung" angekommen, wie auch der unten verlinkte Beitrag zeigt. - 2009
Seit Jahren schon befindet sich das "Quantencomputing" im Bereich "Technology Trigger" mit der Aussicht, erst in ferner Zukunft wirklich relevant zu werden. Das war schon 2005 so und ist es bis heute. - 2010
Das Internet-Fernsehen sollte diesem Hype Cycle nach bis spätestens 2020 ganz groß rauskommen. Mediatheken, Youtube und Streaming-Platformen befeuern diesen Trend, der sich derzeit auf dem Weg in die Massentauglichkeit befindet. - 2011
Das Thema "Virtuelle Welten" beschäftigt Gartner seit dem Trend um Second Lífe in den Jahren 2007 und 2008. Ab 2012 hält es als "Virtual Reality" Einzug ins "Tal der Desillusionierung", wo es bis heute verharrt. - 2012
Nachdem es viele Jahre lang eher ein nicht greifbarer Trend gewesen ist, sind die "Predictive Analytics" spätestens 2012 auf dem "Plateau der Produktivität" angekommen. - 2013
In-Memory-Computing hat sich nach seinem Peak im Jahr 2011 aufgemacht, die überzogenen Erwartungen an die Datenverarbeitung direkt im Hauptspeicher ein wenig zu dämpfen - der produktive Einsatz kommt näher. - 2015
Der Hype Cycle 2015 nimmt 37 Technologietrends unter die Lupe. Im Internet of Things bekommen CIOs nun künftig eine neue Kundengruppe: Dinge wie Roboter und smarte Maschinen. Big Data und In-Memory findet man allerdings nicht mehr in der Kurve, diese Technologien hält Gartner inzwischen für etabliert. - 2016
Während sich Augmented und Virtual Reality im Jahr 2016 langsam in den Produktivbereich entwickeln, erlebt die Blockchain-Technologie einen rasanten Aufstieg. Machine Learning und Software-defined Security befinden sich auf dem Höhepunkt der übertriebenen Erwartungen. - 2017
Die Blockchain spielt auch 2017 eine Rolle - allerdings geht es jetzt um die überzogenen Erwartungen an die neuartige Datenbank. Während es vor zehn Jahren (2007) noch um 3D-Druck ging, schreibt Gartner jetzt über 4D-Druck. - 2018
2018 sieht Gartner den Hype Cycle im Mega-Trend Mensch und Maschine. Die Grenzen zwischen beiden verschwimmen, so die Analysten. Daher geht es etwa um Neuromorphic Hardware und Brain-Computer Interfaces. - 2019
Das Zusammenspiel von Mensch und Maschine sowie die Einbindung Künstlicher Intelligenz stehen im Fokus von Gartners Hype Cycle for emerging Technologies 2019. Die US-Marktforscher geben für die kommenden zehn Jahre Prognosen für 29 Technologie-Trends ab. - 2020
Im Hype Cycle for Emerging Technologies 2020 hat Gartner aus über 1.700 Technologien jene 30 herausgefiltert, die aus Sicht der Analysten das größte Transformationspotenzial für Gesellschaft und Wirtschaft bieten und einen hohen Nutzen versprechen. Dazu zählen in diesem Jahr unter anderem Technologien, die es Unternehmen erlauben, ihren Betrieb zu modularisieren, die das Vertrauen der Gesellschaft in Technologie wiederherstellen sollen und die den Zustand des menschlichen Gehirns verändern können. - 2021
KI, Blockchain, digitale Menschen: Die Marktforscher von Gartner sagen, welche Technologien Gesellschaft und Wirtschaft in ein paar Jahren auf den Kopf stellen könnten. - 2022
Zum Auftakt ihres IT Symposiums/Xpo in den USA haben die Analysten von Gartner die aus ihrer Sicht wichtigsten Technologietrends veröffentlicht, mit denen sich Unternehmen beschäftigen sollten. - 2023
Dass KI ein Trendthema ist, ist uns allen bewusst. Für Gartner hat KI zudem das Potenzial in den nächsten zwei bis fünf Jahren einen transformativen Mehrwert zu erzielen.
Gartner Hype Cycle trifft SciFi: Beyond Silicon
Wie in jedem Hype Cycle darf auch 2020 ein wenig Science Fiction nicht fehlen. Diesmal geht es um die Basis, das Silizium. Jahrzehnte sei Moore’s Law die Leitplanke gewesen: Eine Verkleinerung der Strukturbreiten auf den Prozessoren sorgte regelmäßig für die notwendigen Leistungsschübe. Doch mittlerweile stoßen die Hersteller an Grenzen. Es stellt sich die Frage nach dem Material.
Eine mögliche Alternative könnten DNA-Computing und -Storage sein. Dabei bilden DNA- und biochemische Strukturen die Rechengrundlage. Daten ließen sich beispielsweise als Abfolge von Ribonukleinsäuren codieren, ähnlich wie das menschliche Genom in den Zellen. Entsprechende Technologien stehen aber noch in den Startlöchern. So findet sich die Technologie ganz am Anfang des Hype Cycle.
Auch biologisch abbaubare Sensoren liegen noch in weiter Ferne, so Gartner. Dabei handelt es sich um Sensoren aus ungiftigen Materialien, die sich unproblematisch in die Verwertungskreisläufe einbauen lassen. Einsatzgebiete könnten die Nachverfolgung von Lebensmitteln sein oder die Untersuchung von Wirkketten von Medikamenten im Pharmabereich.
Näher an der Realität sind Kohlenstoff-basierte Transistoren, wobei die Technik derzeit ins Tal der Enttäuschungen abrutscht. Etliche Hersteller arbeiten bereits mit Hochdruck an neuen Chips ohne klassisches Silizium. Es gibt zwei vielversprechende Beispiele: spezielle hexagonale Wabengitter aus Graphit und Kohlenstoff-Nanoröhren. Hauptproblem ist derzeit noch die Verarbeitung des Materials in extrem dünnen Mikrostrukturen.
Die Ausschussrate liegt zu hoch, als dass man von einem effizienten Produktionsprozess sprechen könnte. Gleiches gilt für die Kosten. Auch an den Schalt- und Leitfähigkeiten müssen die Forscher noch tüfteln. Die Versprechen sind aber groß: mehr Rechenleistung und weniger Energieverbrauch als bei den derzeit üblichen Silizium-basierten Chip-Architekturen.