Article

Umfassendes Glossar zu generativer KI für Unternehmen

Generative KI ist die Innovation, die derzeit in aller Munde ist. Verschaffen Sie sich einen Überblick über die wichtigsten Begriffe, um zu verstehen, warum diese Technologie in der Wirtschaft so hohe Wellen schlägt.

Umfassendes Glossar zu generativer KI für Unternehmen

Generative KI schlägt in der Welt der Wirtschaft und Technologie hohe Wellen. Wenn Sie sich also einen Wettbewerbsvorteil verschaffen oder auf dem Laufenden bleiben wollen, ist es unerlässlich, dass Sie die Fachbegriffe im Zusammenhang mit generativer KI verstehen.

In diesem Glossar finden Sie die wichtigsten Begriffe zum Thema KI. Sie sind zum besseren Verständnis in drei Kategorien unterteilt. Innerhalb der einzelnen Kategorien sind die Begriffe nicht alphabetisch geordnet, sondern in der Reihenfolge, die am intuitivsten ist, um auf den vorangegangenen Begriffen aufzubauen.

Gehen wir also ins Detail.

Grundlagen der KI und des maschinellen Lernens

Künstliche Intelligenz (KI)

KI ist ein weit gefasster Begriff für Computer (oder Maschinen), die Aufgaben ausführen, die normalerweise menschliche Intelligenz erfordern, z. B. Problemlösung, Wahrnehmung oder logisches Denken.

Maschinelles Lernen (ML)

ML, ein Teilbereich der KI, verwendet Algorithmen, um Daten zu analysieren, daraus zu lernen und Vorhersagen oder Entscheidungen zu treffen, ohne dass ein Computer explizit für diese Aufgabe programmiert wird.

Deep Learning

Deep Learning, ein Teilbereich des maschinellen Lernens, modelliert hochgradig abstrakte Daten, indem es mehrere Verarbeitungsebenen verwendet, von denen jede die Interpretation der Daten der vorangegangenen Ebene verfeinert.

Während sich ein herkömmliches Programm beispielsweise bei der Bilderkennung auf vordefinierte Muster konzentriert, zerlegt ein Deep-Learning-Algorithmus das Bild nach Merkmalen (wie Formen, Farben und Texturen) und lernt, Muster auf eine mehrschichtige Weise zu erkennen – ähnlich wie unser Gehirn Objekte erkennt.

Neuronale Netzwerke

Neuronale Netzwerke bilden die Funktionsweise des menschlichen Gehirns nach und sind ein Eckpfeiler des Deep Learning. Diese Netzwerke sind eigens dafür konzipiert, Muster in Daten zu erkennen. Sie bestehen aus miteinander verbundenen Schichten von Knoten (oder Neuronen), die sich gegenseitig mit Daten versorgen und so in der Lage sind, aus Daten zu lernen und sie zu interpretieren.

Modell

Ein Modell ist im Bereich ML eine spezifische Darstellung, die durch Anwendung eines ML-Algorithmus aus Daten lernt. Im Gegensatz zu herkömmlicher Software, die vorgegebenen Anweisungen folgt, um Ergebnisse zu erzielen, lernt ein ML-Modell aus den Daten und trifft Entscheidungen auf der Grundlage dessen, was es aufgenommen hat. 

Wenn Sie beispielsweise ein Modell mit Daten über Immobilienverkäufe trainieren, kann es die Hauspreise an einem bestimmten Ort vorhersagen. Sie würden das Modell jedoch nicht mit spezifischen Regeln versehen, z. B. „Wenn das Haus in dieser Gegend liegt, muss der Preis um diesen Betrag erhöht werden.“ Stattdessen erkennt es die Auswirkungen des Standorts (und anderer Merkmale) auf die Hauspreise anhand der Muster, die es in den Trainingsdaten gefunden hat.

Training

Training bezeichnet die Phase im ML, in der das Modell aus einem Datensatz lernt. Ziel ist es, einen Wissensstand zu erreichen, der es dem Modell ermöglicht, genaue Vorhersagen oder Entscheidungen zu treffen.

Überwachtes Lernen

Überwachtes Lernen ist eine Form des maschinellen Lernens, bei der das Modell anhand von gekennzeichneten Trainingsdaten trainiert wird. Das Ziel ist es, dass das Modell Beispiel-Eingabe-Ausgabe-Paare verwendet und dann eine Funktion lernt, die eine Eingabe auf eine Ausgabe abbildet.

Nehmen wir etwa die Entwicklung eines Systems, das feststellt, ob eine E-Mail Spam ist oder nicht. Beim überwachten Lernen würde dieses System mit einer Vielzahl von bereits als Spam oder Nicht-Spam gekennzeichneten E-Mails trainiert werden. Anschließend würde sich das Modell die Merkmale von Spam-E-Mails merken, z. B. bestimmte Formulierungen oder Muster, die typischerweise verwendet werden. Nach ausreichendem Training kann das System dann neue E-Mails auf der Grundlage des Gelernten korrekt als Spam oder Nicht-Spam klassifizieren. 

Unüberwachtes Lernen

Unüberwachtes Lernen ist eine ML-Technik, bei der das Modell aus einem Datensatz ohne eindeutige Labels lernt. Diese Technik wird häufig verwendet, um versteckte Muster oder intrinsische Strukturen in den Eingabedaten zu entdecken.

Ein Beispiel für unüberwachtes Lernen ist die Kundensegmentierung in der Marketingbranche. Angenommen, ein Unternehmen hat einen großen Kundenstamm und das Marketingteam möchte gezielte Marketingstrategien für bestimmte Kund:innen entwickeln. Das Team hat seine Kund:innen jedoch noch nicht in Gruppen eingeteilt oder mit Kennzeichen versehen. An dieser Stelle käme das unüberwachte Lernen ins Spiel.

Mithilfe von Techniken wie Clustering kann das Marketingteam die Daten zum Kaufverhalten der Kund:innen nutzen, um sie in verschiedene Gruppen einzuteilen. Diese Gruppen können Kund:innen mit ähnlichen Verhaltensweisen, Vorlieben oder Eigenschaften repräsentieren, auch wenn das Modell im Voraus nicht weiß, wie diese Gruppen aussehen sollen. Das Marketingteam kann dann seine Marketingkampagnen auf diese neu identifizierten Kundensegmente zuschneiden.

Generator

Ein Generator ist eine Komponente, die lernt, neue Daten zu erzeugen, die seinen Trainingsdaten ähneln.

 

Linguistische Datenverarbeitung (Natural Language Processing, NLP), generative KI und Textanalyse

Linguistische Datenverarbeitung (Natural Language Processing, NLP)

NLP ist ein Teilbereich der KI, der sich mit der Interaktion zwischen Computern und Menschen mittels natürlicher Sprache beschäftigt. Ziel ist es, Maschinen in die Lage zu versetzen, Text- oder Spracheingaben zu verstehen und darauf zu reagieren, ähnlich wie Menschen.

Sprachmodelle (Language Models, LMs)

LMs sind KI-Modelle, die menschliche Sprache verstehen und erzeugen können. LMs werden mittels großer Mengen von Textdaten trainiert und lernen die statistische Struktur der menschlichen Sprache, um sie zu verstehen.

Große Sprachmodelle (Large Language Models, LLMs)

LLMs sind hochentwickelte, erweiterte Versionen von LMs, die anhand einer beträchtlichen Menge von Textdaten trainiert wurden. Sie können die menschliche Sprache nuancierter verstehen und erzeugen.

Ein LM und ein LLM unterscheiden sich in erster Linie durch den Umfang der Trainingsdaten und die Modellgröße. Ein reguläres LM kann mit Millionen von Dokumenten trainiert werden und aus Hunderten Millionen von Parametern bestehen, die die Aspekte des Modells darstellen, die auf den Trainingsdaten basieren.

Im Gegensatz dazu werden LLMs anhand von Milliarden von Dokumenten trainiert und können Hunderte Milliarden – oder sogar Billionen – von Parametern haben. GPT-3, eines der größten verfügbaren Sprachmodelle, hat beispielsweise 175 Milliarden Parameter. Dank dieses enormen Umfangs können LLMs Texte erzeugen, die von Menschen erstellten Texten verblüffend ähnlich sind, und komplexere Zusammenhänge in den Textdaten verstehen.

Generative Pre-trained Transformer (GPT)

GPT ist eine von OpenAI entwickelte Art von LLM. Diese Modelle können menschenähnlichen Text erzeugen, indem sie die Wahrscheinlichkeit eines Wortes anhand der zuvor im Text verwendeten Wörter vorhersehen.

Transformer-Modelle

Transformer-Modelle sind eine Art von neuronaler Netzwerkarchitektur. Diese Modelle haben sich bei NLP-Aufgaben als überaus erfolgreich erwiesen. Solche Modelle verarbeiten die Eingabedaten parallel (im Gegensatz zur sequentiellen Verarbeitung), was sie effizienter macht. 

Selbstaufmerksamkeit

Die Selbstaufmerksamkeit ist ein Mechanismus, der in Transformer-Modellen verwendet wird. Dieser Mechanismus ermöglicht es dem Modell, verschiedenen Wörtern in einer Eingabesequenz bei der Erzeugung einer Ausgabe Bedeutung (oder Aufmerksamkeit) zuzuweisen. So kann das Modell feststellen, welche Wörter in einem Satz für das Verständnis des Gesamtzusammenhangs entscheidend sind.

Nehmen wir zum Beispiel den folgenden Satz: „I arrived at the bank after crossing the river.“ (Ich habe das Ufer erreicht, nachdem ich den Fluss überquert hatte.) Das Wort „bank“ kann im Englischen mehrere Bedeutungen haben, aber das Vorhandensein von „river“ (Fluss) in dem Satz liefert den entscheidenden Kontext. Ein Selbstaufmerksamkeitsmechanismus ermöglicht es dem Modell, dem Wort „river“ (Fluss) mehr Aufmerksamkeit zu schenken, wenn es versucht, die Bedeutung von „bank“ (Bank, Ufer) zu verstehen und daraus zu schließen, dass sich „bank“ hier auf den Rand des Flusses, das Ufer, und nicht auf ein Finanzinstitut bezieht. Diese Eigenschaft macht Selbstaufmerksamkeit besonders leistungsfähig für Aufgaben, bei denen es darum geht, den Kontext von Sprache zu verstehen, z. B. bei der Übersetzung, Zusammenfassung und Sentimentanalyse.

Token

Ein Token bezieht sich bei der Verarbeitung natürlicher Sprache auf eine einzelne Einheit von Sprachdaten, in der Regel ein Wort oder Teilwort in einem Textdokument.

Feinabstimmung

Bei der Feinabstimmung wird ein zuvor trainiertes Modell mit einem neuen Datensatz trainiert, um seine Leistung zu optimieren. Dies ist eine gängige Praxis beim Deep Learning, da sie weniger Rechenressourcen erfordert als das Training eines Modells von Grund auf.

Generative KI

Generative KI ist ein Teilbereich der KI, der sich mit der Erstellung neuer Inhalte befasst, darunter Bilder, Musik, Sprache oder Text. Generative KI lernt aus vorhandenen Daten und versucht, ähnliche Inhalte zu generieren.

Sentimentanalyse

Die Sentimentanalyse ist eine NLP-Technik, mit der die in einem Text zum Ausdruck kommende Stimmung ermittelt werden kann.

Ein Forscher kann zum Beispiel eine Sentimentanalyse verwenden, um Tweets über ein aktuelles Ereignis in den Nachrichten zu kategorisieren und festzustellen, ob die einzelnen Tweets das Ereignis positiv, negativ oder neutral bewerten.

 

Praktische und ethische Aspekte

KI-Voreingenommenheit

KI-Voreingenommenheit, auch KI-Bias genannt, kann auftreten, wenn Systeme bestehende Voreingenommenheiten in den trainierten Daten widerspiegeln und sogar verstärken, was zu ungerechten Ergebnissen führen kann.

Erklärbarkeit/Interpretierbarkeit

Erklärbarkeit/Interpretierbarkeit ist die Fähigkeit, die von einem KI-System getroffenen Entscheidungen zu verstehen und zu interpretieren. Dieser Aspekt ist wichtig für Vertrauen und Transparenz, insbesondere in Branchen wie dem Gesundheits- und Finanzwesen.

Halluzination

Halluzination in der KI bedeutet, dass ein Modell Ergebnisse erzeugt, die nicht auf seinen Eingabedaten beruhen. Das ist ein häufiges Problem in der generativen KI, z. B. wenn LLMs plausible, aber falsche oder unsinnige Informationen produzieren.

Wenn Sie beispielsweise einem LLM eine geschichtliche Frage stellen wie: „Wie ging die Schlacht zwischen Napoleon und den Aliens aus?“, könnte das LLM eine detaillierte und phantasievolle Antwort geben, obwohl ein solches Ereignis nie stattgefunden hat. Dies ist eine Form der Halluzination, denn das LLM hat ein Szenario geschaffen, das weder in seinen Trainingsdaten noch in der realen Geschichte existiert. Die Berücksichtigung dieser Tendenz in generativen KI-Systemen ist von entscheidender Bedeutung, insbesondere bei der Generierung genauer und zuverlässiger Informationen.

Verallgemeinerung

Verallgemeinerung ist die Fähigkeit eines KI-Modells, das aus Trainingsdaten gelernte Wissen relevant und genau auf neue Daten anzuwenden.

Robustheit

Robustheit bezieht sich auf die Fähigkeit eines KI-Systems, auch unter wechselnden oder schwierigen Bedingungen effektiv zu arbeiten, z. B. bei der Verarbeitung neuer Eingaben oder bei der Bewältigung von bösartigen Angriffen.

Datenschutz

Datenschutz in der KI ist die Praxis der Gewährleistung des Schutzes und der Vertraulichkeit von Daten. Dies ist im Bereich der KI von entscheidender Bedeutung, da Modelle oft große Datenmengen für das Training benötigen. Die Daten können vertrauliche oder sensible Informationen enthalten, z. B. Gesundheitsdaten, Finanzinformationen oder geistiges Eigentum. Bei unsachgemäßer Handhabung kann es zu Verletzungen des Datenschutzes kommen. Daher sind strikte Verfahrensweisen zum Datenschutz bei der Erfassung, Speicherung und Verwendung von Daten für das KI-Training unerlässlich.

KI-Governance

KI-Governance stellt sicher, dass KI-Systeme ethisch und transparent arbeiten, im besten Interesse aller Beteiligten. Dies beinhaltet häufig die Entwicklung von Leitlinien oder Richtlinien zum Einsatz und zu den Auswirkungen von KI.

AI as a Service (AIaaS)

AIaaS ist das Outsourcing von KI-Funktionen oder -Dienstleistungen über cloudbasierte Plattformen, die es Unternehmen ermöglichen, KI ohne umfangreiche Vorabinvestitionen zu nutzen.

Automatisiertes maschinelles Lernen (AutoML)

AutoML bezieht sich auf die Tools und Techniken, die zur Automatisierung der Anwendung von maschinellem Lernen verwendet werden. Dazu können die Vorverarbeitung der Daten, die Modellauswahl und die Abstimmung der Hyperparameter gehören.

Datenerweiterung

Bei der Datenerweiterung handelt es sich um eine Technik zur Vergrößerung der Trainingsdatenmenge durch Hinzufügen leicht modifizierter Kopien bestehender Daten, wodurch die Leistung des Modells verbessert wird.

Edge-KI

Edge-KI bezieht sich auf die Ausführung von KI-Algorithmen auf Endgeräten wie Smartphones oder IoT-Geräten (Internet of Things), die eine Datenverarbeitung an der Quelle ermöglichen und Echtzeitverarbeitung und Datenschutz gewährleisten.

Ein hervorragendes Beispiel für Edge-KI sind die selbstfahrenden Autos von Tesla. Diese Fahrzeuge nutzen fortschrittliche KI-Funktionen, um Sensordaten zu interpretieren und Fahrentscheidungen in Echtzeit zu treffen. Dies erfordert eine hohe Rechenleistung bei der Datenverarbeitung und eine schnelle Entscheidungsfindung direkt im Fahrzeug – etwas, das nicht möglich wäre, wenn das Fahrzeug ständig Daten zur Verarbeitung an die Cloud senden müsste.

Verstärkungslernen

Verstärkungslernen ist eine ML-Technik, bei der ein Agent lernt, Entscheidungen zu treffen, indem er in einer Umgebung, die eine Art von Belohnung oder positiver Rückmeldung maximiert, Aktionen ausführt.

Chatbot

Ein Chatbot ist eine Software, die unter Verwendung von vordefinierten Regeln oder KI-Technologien wie NLP eine menschliche Konversation simuliert, die entweder gesprochen oder textbasiert ist.

Bringen Sie Ihr Unternehmen mit der CustomerAI von Twilio voran

Der Einsatz von generativer KI für Kundeninteraktionen oder zur Steuerung von Abläufen kann für Ihr Unternehmen einen entscheidenden Wendepunkt darstellen. Dieses Glossar ist zwar ein hervorragender Ausgangspunkt, um sich mit den wichtigsten Begriffen vertraut zu machen, aber möglicherweise ist Ihr Unternehmen schon bereit für die nächste Stufe.

Mit CustomerAI von Twilio, den KI-gestützten Tools von Twilio, können Sie die Leistungsfähigkeit von KI in Ihrem Unternehmen nutzen. Sie helfen Ihnen, Kundenerfahrungen zu personalisieren, die Qualität Ihres Kundenservice zu verbessern und wichtige Erkenntnisse über Ihre Kund:innen und deren Verhalten zu gewinnen. Kontaktieren Sie unsere Fachleute noch heute, um mehr zu erfahren und direkt loszulegen.

CustomerAI auf der SIGNAL 2023 entdecken

Sehen Sie sich die interessanten Inhalte der jährlichen Kunden- und Entwicklerkonferenz von Twilio noch einmal an – kostenlos. Erfahren Sie, wie Marken die Leistungsfähigkeit von KI mit Echtzeit-Kundendaten nutzen können, um personalisierte Angebote zu erstellen.

Jetzt ansehen