Beiträge von iLocIT!
Blog
5 KI-Trends im Jahr 2021
2020, als die globale Pandemie die Welt heimsuchte, machte die Menschheit eine bahnbrechende Lernerfahrung, die fast jeden Aspekt der menschlichen Interaktion für immer verändert hat. Aber schon vorher waren die künstliche Intelligenz (KI) und der als maschinelles Lernen (ML) bekannte Zweig der KI auf dem Weg, fast jede Branche grundlegend zu verändern.
Im Jahr 2021 werden sich weitere wichtige ML- und KI-Trends entwickeln und weiterentwickeln, die unsere wirtschaftlichen, sozialen und industriellen Normen wahrscheinlich weitreichend umgestalten werden. Laut einer Gartner-Studie aus dem Jahr 2019 nutzen rund 37% aller untersuchten Unternehmen irgendeine Art von ML. Es wird angenommen, dass bis 2022 rund 80% jeglichen wirtschaftlichen und wissenschaftlichen Fortschritts die eine oder andere Art und Weise auf KI und ML beruhen wird.
Mit dem steigenden Interesse an KI-Technologie entstehen verschiedene neue Trends in diesem Bereich. In diesem Artikel konzentrieren wir uns auf fünf KI-Trends, von denen angenommen wird, dass sie im Jahr 2021 häufig verwendet und untersucht werden und die einen starken Einfluss auf die Branche der Sprachdienstleister und Technologieanbieter in diesem Bereich, aber auch darüber hinaus, haben werden:
Vokenization, Data Monetization, Deep Reinforcement Learning (DRL), Automated Narrative Text Generation und Data Science as a Service (DSaaS).
1. Vokenization
Sprachmodelle wurden bisher nur mit Text trainiert. Um das zu ändern, haben Forscher der University of North Carolina, Chapel Hill, eine neue Technik namens “Vokenization” entwickelt, die Sprachmodellen wie GPT-3 die Fähigkeit verleiht, zu “sehen”, indem sie ihnen ermöglicht, visuellen Input zu verarbeiten. Die Forschung im Bereich der Kombination von Sprachmodellen und „Computer Vision“ hat stark zugenommen, da KI-Modelle, die sowohl sprachliche als auch visuelle Eingaben verarbeiten können, zu sehr praktischen Anwendungen führen können. Wenn wir zum Beispiel einen Roboterassistenten bauen würden, bräuchte dieser sowohl „Computer Vision“, um in der physischen Umgebung zu navigieren, als auch Sprachverarbeitungsfähigkeiten, um mit Menschen zu kommunizieren.
Der Begriff “Voken” wurde im Rahmen der Forschung erfunden. Er leitet sich von dem Wort “token” ab, das eine beim Training von Sprachmodellen übliche Zeichenfolge bezeichnet, die in etwa einer lexikalischen Einheit wie einem einzelnen Wort entspricht. Die Forscher an der UNC nennen das mit jedem Token verknüpfte Bild in ihrem visuellen Sprachmodell ein “Voken”. “Vokenizer” nennen sie dann den Algorithmus, der die Vokens den Tokens zuordnet, und “Vokenization” ist das Wort, das den gesamten Prozess beschreibt.
Die Forscher erstellten visuelle und Wort-Einbettungen mit MS COCO, um ihren Vokenizer-Algorithmus zu trainieren. Nach dem Training gelang es dem Vokenizer, Vokens den Token in der englischen Wikipedia zuzuordnen. Der Algorithmus fand nur für etwa 40 % der Token Voken. Das sind aber immerhin 40 % eines Datensatzes, der etwa 3 Milliarden Wörter umfasst!
Mit diesem neuen Datensatz wurde BERT, das von Google entwickelte Open-Source-Sprachmodell auf Transformer-Basis, neu trainiert. Die Forscher testeten dann das neu trainierte BERT in sechs verschiedenen Sprachverständnistests. Die neu trainierte Version von BERT schnitt in allen sechs Sprachen besser ab.
Vokenization wird als einer der jüngsten Durchbrüche in der KI angesehen, da es gelingt, Text mit anderen Modalitäten zu verbinden. Es ist nun konzeptionell möglich, einen Roboter zu bauen, der nicht nur sprechen, sondern auch hören und sehen kann.
2. Data Monetization (Datenmonetarisierung)
Mit der Erkenntnis, dass fast alles datenbasiert sein kann, stellen sich Unternehmen nun die Frage, wie sie aus den großen Datenmengen, die ihnen zur Verfügung stehen oder die sie besitzen, Wert generieren können.
Der Wert von Daten kann parallel mit der Art und Weise der Nutzung eben dieser Daten wachsen. Dabei ist aber auch entscheidend welche Erkenntnisse aus ihnen gezogen werden. Datenmonetarisierung bezieht sich auf den Prozess der Generierung von wirtschaftlichem Wert aus Daten. Der Kern von Datenmonetarisierungsstrategien, die zunehmend an Bedeutung gewinnen, besteht darin, Daten als Vermögenswert zu behandeln und ihren Wert zu maximieren.
Als neu erforschter Geschäftszweig ist die Monetarisierung von Daten für viele CIOs zur größten Herausforderung geworden. Vielen Unternehmen fehlt eine geschäftsorientierte Value-Engineering-Methodik, um zu identifizieren und zu priorisieren, wo und wie KI/ML neue Werte für Kunden, Produkte und den allgemeinen Betrieb ableiten kann. Mit Beispielen zunehmenden erfolgreicher Datenmonetarisierung beginnen Unternehmen, den wirtschaftlichen Wert von Daten und Analysen zu schätzen.
Dese Herausforderung wird nur meistern wer für neue Möglichkeiten offen ist. Marktplatzmodelle scheinen eine Möglichkeit zu sein, der Monetarisierung von Daten eine Plattformen zu bieten.
3. Deep Reinforcement Learning (DRL)
Basierend auf den jüngsten Entwicklungen im Bereich der Künstlichen Intelligenz hat sich nach den Forschungen von Ruben Glatt, Felipe Leno da Silva und Anna Helena Reali Costa an der Escola Politecnica da Universidade de Sao Paulo eine vielversprechende neue Technologie zum Aufbau intelligenter Agenten entwickelt. Diese neue Technologie heißt Deep Reinforcement Learning (DRL) und stellt eine Kombination aus klassischem Reinforcement Learning (RL), das durch sequentielles Ausprobieren die beste Aktion in jeder Situation lernt, und modernen Deep Learning-Ansätzen dar, die komplexe Eingaben auswerten und die beste Reaktion auswählen können. Derzeit ist DRL eines der angesagtesten Trendfelder im Bereich des maschinellen Lernens, da es eine große Bandbreite an komplexen Entscheidungsaufgaben lösen kann. Vor den aktuellen Fortschritten in DRL galt es für eine Maschine als unerreichbar, reale Probleme mit menschenähnlicher Intelligenz zu lösen.
Diese neuen Ansätze erfordern noch lange Trainingszeiten für schwierige und hochdimensionale Aufgabendomänen. Die Generalisierung von gesammeltem Wissen und die Übertragung auf eine andere Aufgabe war das Thema des klassischen RL, ist aber weiterhin ein ungelöstes Problem im DRL-Bereich. Es wurde jedoch kürzlich in der Forschung aufgedeckt, dass für Policies ein durchgängiges Lernen mit hochdimensionalen sensorischen Eingaben in anspruchsvollen Aufgabendomänen wie Arcade-Gaming möglich ist.
Neben der akademischen Forschung wurden Fälle in den Medien ausführlich behandelt, in denen DRL Menschen bei Spielen besiegt hat. Zum Beispiel besiegte AlphaGo den besten professionellen menschlichen Spieler im Spiel namens Go. AlphaStar besiegte professionelle Spieler in dem Spiel StarCraft II. Der Dota-2-spielende Bot von OpenAI schlug die Weltmeister in einem E-Sport-Spiel.
In der Wirtschaft finden sich viele DRL-Anwendungen in den unterschiedlichsten Bereichen, von der Bestandsverwaltung, dem Supply Chain Management, dem Warehouse Operations Management und der Bedarfsprognose bis hin zum Finanzportfolio-Management. In der natürlichen Sprachverarbeitung wird DRL häufig für Aufgaben wie abstrakte Textzusammenfassung, Chatbots usw. verwendet. Ein beträchtlicher Teil der Forschung befasst sich auch mit Anwendungen von DRL in den Bereichen Bildung, Gesundheitswesen und Smart Cities.
4. Automatisierte Textgenerierung (ATG)
Künstliche Intelligenz wird eingesetzt, um Lösungen für verschiedene Aufgaben zu finden, in der Hoffnung, Kosten, Zeit und Aufwand zu reduzieren. Eine der faszinierendsten Fragen ist “Kann ein Computer kreativ sein?”. Brian Daniel Herrera-González, Alexander Gelbukh und Hiram Calvo vom Center for Computing Research analysieren diese Frage in ihrer einschlägigen Studie. Eine der Aufgaben, auf die KI angewendet wurde, ist die automatische Generierung von Geschichten.
Bisher wurden in der akademischen Forschung zwei Ansätze für die Aufgabe der automatischen Textgenerierung identifiziert: der symbolische Ansatz und der konnektionistische Ansatz.
Beim symbolischen Ansatz besteht einer der Vorteile darin, dass der Weg, dem die Handlungen der Geschichte folgen, leicht abzugrenzen ist, während der Hauptnachteil darin besteht, dass es an Kreativität mangelt und Geschichten entstehen, die sich mit einem reduzierten Repertoire an Ereignissen wiederholen.
Beim konnektionistischen Ansatz wird das Problem der mangelnden Neuartigkeit in Geschichten gelöst, allerdings geht die Kohärenz in der Geschichte verloren. Im Bereich der automatischen Texterzeugung wurden Lösungen wie Sequenz-für-Sequenz-Modelle (seq2seq) mit rekurrenten neuronalen Netzen (RNN) und unüberwachtes Lernen durch generative adversarische Netze GAN oder bidirektionale assoziative Gedächtnisse als Möglichkeiten untersucht und diskutiert.
Wenn es um den praktischen Einsatz von ATG geht, kann man mit Fug und Recht behaupten, dass die meisten heutigen Internetnutzer täglich auf ATG-Ausgaben stoßen. Zu den etablierten Anwendungen für die automatische Textgenerierung gehören Fußballberichte, Erdbebenmeldungen, Börsennachrichten, Wetter- und Staumeldungen. Je weiter das Feld in seiner Anwendung fortschreitet, desto schwieriger wird es, zwischen automatisch generierten und von Menschen geschriebenen Artikeln zu unterscheiden. Laut Tests mit Fußballspielberichten bewerteten Leser die Ausgaben des “Roboterjournalisten” als natürlicher als die eines “echten” Redakteurs. Ein interessantes Beispiel für ATG ist eine neue Version der Märchen der Gebrüder Grimm, das von KI geschrieben wurde, wobei der Algorithmus darauf trainiert wurde, den literarischen Stil der Gebrüder Grimm zu imitieren. Darüber hinaus ist ATG auch im E-Commerce weit verbreitet, wo große Mengen an Produktbeschreibungen von ATG produziert werden.
5. Data Science as a Service (DSaaS)
Bei Data Science as a Service (DSaaS) geht es um die Bereitstellung von Daten für Firmenkunden. Diese Daten werden durch fortschrittliche Analyseanwendungen eines externen Dienstleisters gesammelt und von „Datenwissenschaftlern“ (Data Scientists) analysiert. Das Ziel ist es, Business Intelligence zu sammeln und fundierte Entscheidungen über neue Geschäftsfelder zu treffen.
Das funktioniert so: Kunden laden die Daten auf eine Big-Data-Plattform oder eine Cloud-Datenbank hoch. Ein Team von Datenwissenschaftlern und Dienstleistern bearbeitet zusammen mit spezialisierten Dateningenieuren die hochgeladenen Daten. Sie analysieren die Daten und erstellen einen Bericht darüber, welches Unternehmen wahrscheinlich Ihre Produkte kaufen wird und liefert des weiteren Informationen zu potentiellen Konkurrenten, möglichen Nettoeinnahmen, dem zu erwartenden Umsatz usw.
Data Science as a Service wird meist von Unternehmen genutzt, die unter dem Mangel an eben diesen Datenwissenschaftlern leiden. Letztendlich hilft DSaaS bei der Identifikation von Wachstumspotential im Unternehmen.
Dieser Artikel ist eine Übersetzung des bei TAUS auf Englisch erschienenen Beitrags:
Şölen Aslan
Bildquelle: Der einfühlsame Algorithmus – Goethe-Institut