Künstliche Intelligenz (KI)

Künstliche Intelligenz (KI)

Vorteile und Usecases von KI

Bedeutung in der Wirtschaft:

Die Implementierung von KI-Technologien revolutioniert die Geschäftswelt. Unternehmen können durch den Einsatz von KI ihre Effizienz steigern, Kosten senken und die Qualität ihrer Dienstleistungen und Produkte verbessern. KI ermöglicht es Unternehmen, riesige Datenmengen schnell zu analysieren und wertvolle Erkenntnisse zu gewinnen, die sonst unentdeckt bleiben würden. Dies führt zu besseren Geschäftsentscheidungen und erhöht die Wettbewerbsfähigkeit.

Statistiken

  • Laut dem IBM Global AI Adoption Index 2023 haben etwa 32 % der deutschen Unternehmen mit über 1.000 Mitarbeitern KI bereits aktiv implementiert.
  • Im globalen Vergleich liegt Deutschland damit hinter Spitzenreitern wie Indien (59 %), China (50 %), Singapur (53 %) und den Vereinigten Arabischen Emiraten (58 %).
  • Deutschland befindet sich eher im unteren Mittelfeld, vor Ländern wie Australien (29 %), Spanien (28 %) und Frankreich (26 %).
  • 44 % der deutschen Unternehmen erforschen aktiv den Einsatz von KI-Technologien, was auf ein wachsendes Interesse hindeutet.
  • Bei der generativen KI zeigt sich Deutschland etwas fortschrittlicher: 33 % der Unternehmen haben diese bereits implementiert, weitere 46 % erkunden deren Einsatz.
  • Bei den KI-Investitionen liegt Deutschland im weltweiten Mittelfeld: 52 % der großen Unternehmen gaben an, dass sie ihre KI-Investitionen beschleunigen werden.

Beispiele für konkrete Usecases in Unternehmen

Kundensupport:

Ein Einzelhandelsunternehmen implementiert einen KI-Chatbot, der Kundenfragen zu Produkten, Bestellungen und Retouren rund um die Uhr beantwortet. Dies entlastet das Support-Team und verbessert die Kundenzufriedenheit.

Marketing:

Ein Modeunternehmen nutzt KI, um das Kaufverhalten seiner Kunden zu analysieren und personalisierte Empfehlungen zu geben. Dies erhöht die Conversion-Rate und stärkt die Kundenbindung.

Finanzen:

Eine Bank setzt KI ein, um verdächtige Transaktionen in Echtzeit zu erkennen und Betrugsversuche zu verhindern. Dies erhöht die Sicherheit und das Vertrauen der Kunden.

HR:

Ein großes Unternehmen automatisiert den Recruiting-Prozess mit einem KI-gestützten Screening-Tool, das Bewerbungen analysiert und die besten Kandidaten identifiziert. Dies beschleunigt den Einstellungsprozess und sorgt für eine bessere Auswahl.

Produktion:

Ein Automobilhersteller verwendet KI zur vorausschauenden Wartung seiner Maschinen, wodurch Ausfallzeiten minimiert und die Produktionskosten gesenkt werden.


KI-Technologien

KI ist kein neues Thema, aber in den letzten 10 Jahren und insbesondere den letzten 4-6 Jahren gab es große Technologiesprünge, die eine erhebliche Steigerung des praktischen Nutzens gebracht haben. Heutzutage wird unter KI vor allem die jüngste Generation von Technologien verstanden, die sich zunehmend etablieren.

Zu den Schlüsseltechnologien gehören hauptsächlich:

  • Deep Learning, ein Teilbereich des Machine Learning (ML), spezialisiert auf die Mustererkennung in großen Datenmengen.
  • Natural Language Processing (NLP), besonders in Form von Large Language Models (LLMs) wie ChatGPT, die in der Lage sind, Texte im Kontext zu analysieren, zusammenzufassen oder zu generieren.

Deep Learning

Deep Learning basiert auf der Analyse umfangreicher Datenmengen. Neuronale Netzwerke lernen dabei, wiederkehrende Muster zu erkennen und diese in vergleichbaren Szenarien anzuwenden.

Eine Bilderkennungs-KI könnte beispielsweise anhand eines Baumes erkennen, dass dünne Äste häufig Blätter tragen und dicke Äste oft dünnere Äste. Ebenso könnte sie die Farben der Blätter, wie Grün oder Braun/Rot, identifizieren.

Die Relevanz von Trainingsdaten ist hier klar: Wenn die KI nur Fotos von Herbstbäumen gesehen hätte, würde sie später Schwierigkeiten haben, grüne Blätter zu erkennen. Selbst bei vielen und guten Trainingsdaten ist die Genauigkeit der Mustererkennung oft noch unzureichend für die Praxis.

Daher kommt das sogenannte Reinforcement Learning zum Einsatz, bei dem ein Mensch die Ergebnisse der KI bewertet und korrigiert. Die KI präsentiert dem Prüfer ihre Erkennungen, um Feedback zu erhalten. Beispielsweise könnte eine Hochspannungsleitung fälschlicherweise als Ast erkannt werden. Dieser Fehler wird markiert, und die KI passt ihre Gewichtungen an, um solche Fehler künftig zu vermeiden.

Konkrete Anwendungsfälle für Deep Learning

Deep Learning eignet sich für alle Szenarien, in denen umfangreiche, qualitativ hochwertige Daten verfügbar sind. Ein prominentes Beispiel ist die Bilderkennung, aber auch die Analyse von Börsenkursen, Kundenverhalten oder statistischen Daten kann davon profitieren.

LLMs bzw. Generative Pre-trained Transformers (GPT):

Während Deep Learning bereits zahlreiche neue Möglichkeiten bot, stellten die neuen Sprachmodelle, LLMs, einen weiteren bedeutenden Fortschritt dar. Plötzlich waren Computer in der Lage, Texte zu analysieren und zu "verstehen", was die Entwicklung von Chatsystemen wie ChatGPT für die direkte Mensch-Maschine-Kommunikation ermöglichte.

Obwohl NLP (Natural Language Processing) bereits seit einiger Zeit existiert, waren die früheren Systeme darauf angewiesen, dass Menschen die Inhalte annotierten, damit die Maschine die Texte "verstehen" konnte. Mit der neuen Transformer-Architektur (ab 2017/2018) für maschinelles Lernen gab es plötzlich eine Methode, mit der die Programme nun selbstständig massenweise Texte analysieren und regelrecht "sprechen lernen" konnten.

Transformer-Modelle analysieren Texte, um vorherzusagen, welche Wörter oder Phrasen in einem bestimmten Kontext am wahrscheinlichsten folgen. Z.B. "Gib mir bitte die Schaufel!" wird häufiger zu finden sein als die Aussage eines 2-jährigen Kindes "Gib Schaufel!". Die KI lernt nun, vereinfacht gesagt, dass das Wort "Schaufel" oft mit einem kleinen Abstand nach "Gib" vorkommt.

Große Konzerne haben nach eigenen Angaben große Teile der frei verfügbaren Texte des Internets und anderer Quellen eingespeist und dafür Milliarden in Rechenkapazitäten investiert. Dies hat eine enorme Datenmenge für das Training bereitgestellt, sodass das „Raten“ der LLMs nun mit hoher Wahrscheinlichkeit zu korrekten Antworten führt. Dennoch treten weiterhin Fehler auf, sogenannte Halluzinationen, bei denen LLMs Dinge erfinden, die nicht existieren oder schlichtweg falsch sind.


Training von KI

Verstehen durch Kontext:

Dank der enormen Datenmengen und der verschiedenen Quellen wie Online-Texte, Bücher oder Transkriptionen aus Videos und Audiodateien, konnten LLMs lernen, was Kontext ist und in welchem Zusammenhang bestimmte Aussagen zu erwarten sind. Beispielsweise könnte ein LLM den Satz „Gib mir bitte die Schaufel!“ in einem YouTube-Video eines Hobby-Gärtners gefunden haben, während „Gib Schaufel!“ aus einem Video von spielenden Kindern im Sandkasten stammt.

Die LLMs verarbeiten also Sätze nicht nur als losgelöste Sätze für sich, sondern betrachten auch das Umfeld, in dem sie diese gelernt haben. Durch diesen Kontext bzw. das Lernen desselben sind sie überhaupt erst in der Lage, Sprache und deren Bedeutung wirklich zu "verstehen". Auch bei Chats mit LLMs spielt der Kontext eine entscheidende Rolle. Je mehr Kontext ein Mensch bei seiner Anfrage (seinem „Prompt“) liefert und je präziser diese formuliert ist, desto besser werden die Antworten des GPT-Systems. Dies wird als „Prompt Engineering“ bezeichnet.

Für Chatbots ist dies besonders wichtig, da mit Prompt Engineering – also durch den Kontext und klare Arbeitsanweisungen für die KI – die notwendige Zuverlässigkeit und Sicherheit gewährleistet wird. Unternehmen möchten z.B. sicherstellen, dass ihr Support-Chatbot auf der Webseite nur „saubere Aussagen“ macht und keine Werbung für Fremdfirmen anzeigt. Diese Anweisungen werden dem Chatbot vorab gegeben und können vom Webseitenbesucher nicht geändert werden. So kann der Kunde z.B. fragen: „Wer ist der Ansprechpartner für Vertrieb?“, aber nicht: „Wen sollte man bei der nächsten Landtagswahl wählen?“.

Datenqualität und Zensur:

Obwohl LLMs eigenständig lernen können, bleibt menschlicher Eingriff notwendig, um Fehler und Manipulationen zu vermeiden. Im Gegensatz zu den alten NLP-Systemen, bei denen Menschen alle Daten vorbereiten mussten, beschränkt sich ihre Rolle beim LLM-Training auf die Überprüfung und Korrektur der Ausgaben sowie die Auswahl qualitativ hochwertiger Quellen. Wissenschaftliche Literatur wird hierbei z.B. höher eingestuft als Inhalte aus YouTube-Videos von Privatpersonen.

Dies ist notwendig, da es natürlich auch jede Menge falsche oder "gefährliche" Informationen im Internet gibt. Allerdings führte das, wie man sich unschwer vorstellen kann, auch bereits zu einer neuen Problematik und Diskussion bezüglich Zensur und Framing. Denn durch den wertenden Eingriff ist natürlich auch z.B. eine politische oder sonstige Einfärbung möglich und wohl auch tatsächlich feststellbar.

Aus diesem Grund gibt es unterschiedliche Ansätze beim Training der großen LLMs, darunter sowohl stärker zensierte als auch weniger zensierte Modelle. Da diese Technologie noch in den Kinderschuhen steckt, kursieren bereits Tricks, wie man LLMs durch geschickte Fragestellungen zu unerlaubten Aussagen verleiten kann, etwa zu Anleitungen für kriminelle Handlungen.

Wir stehen hier momentan noch ganz am Anfang der Einführung dieser neuen Technologien. Die Hersteller, die Gesellschaft und die Politik bzw. die Gesetzgeber werden hier erst noch Erfahrungen sammeln müssen, bis standardisierte Lösungen und Vorschriften etabliert werden können.

Auch wenn man diesen Technologien also noch nicht blind vertrauen kann, was ohnehin selten eine gute Idee ist, ist der Alltagsnutzen und die wirtschaftliche Verwertbarkeit dieser Technologien dennoch bereits enorm und unumstritten.


Services und Hardware zur Nutzung von KI

Deep Learning (Mustererkennung, Bilderkennung)

Die Nutzung von Deep Learning ist in der Regel recht speziell und auf die eigenen Anwendungsfälle ausgerichtet. Daher beschränken sich Internet-Services zum Thema Deep Learning primär auf das Bereitstellen von Hardware oder Rechenkapazität über Cloud-Computing.

KI-Entwickler bzw. Datenanalysten trainieren dann selbst ein neuronales Netzwerk, z.B. mit Unternehmensdaten aus einem Datawarehouse, oder nutzen ein bereits vortrainiertes KI-Modell, z.B. für Bilderkennung, für die eigenen Zwecke. In jedem Fall benötigt man hier qualifiziertes Fachpersonal, das sowohl Programmierkenntnisse hat, als auch den Umgang mit den typischen KI- bzw. ML-Tools beherrscht.

LLMs (Sprach-KI, Chatbots etc.)

Für die Nutzung von LLMs sind die Einstiegshürden niedriger, da weniger tief auf die Low-Level-Ebene der Programmierung gegangen werden muss. Das gilt natürlich sowieso für die Alltagstools, wie z.B. die offiziellen GPT-Chatbots von OpenAI (ChatGPT), Perplexity oder Gemini, die Sie vielleicht schon selbst genutzt haben.

Es gibt aber auch Cloud-Anbieter für Chatbots, mit denen sich Firmen ihren eigenen Chatbot konfigurieren und mit eigenen Daten trainieren können. Wie bei den cloudbasierten Services zur Workflow-Automatisierung gibt es aber auch beim Thema KI/LLM im Web die allgemeine Sicherheits- und Datenschutzproblematik, was die eigenen Unternehmensdaten oder Kundendaten angeht.

Daher versucht man immer mehr, auch lokale, im Unternehmen selbst gehostete KIs zu nutzen und zu trainieren. Seien dies eigene Chatbots zur Kommunikation oder LLMs für Sprachsteuerung, Textgenerierung oder intelligente Programmausführung auf Grundlage menschlicher Sprache. Dies wird dadurch ermöglicht, dass manche Chatmodelle als Open Source oder mit sehr schwach eingeschränkten Lizenzen veröffentlicht werden (z.B. LLaMA von Meta).

Heute sind technische Aufgaben möglich, die früher nicht realisierbar waren, weil sie immer noch menschliche Intelligenz erforderten – selbst für einfache Entscheidungen.

Hardware und Computing-Power:

Theoretisch kann sowohl Deep Learning als auch auf LLMs basierende KI mit herkömmlichen PCs oder Notebooks bewerkstelligt werden. Allerdings ist dies leider nicht wirklich praxistauglich, da spezialisierte Hardware dramatisch und zwar um Größenordnungen schneller ist.

Für lokale KI-Entwicklung nutzen Entwickler daher in der Regel PCs mit starken Grafikkarten oder gleich spezielle Rechnerfarmen, da diese über leistungsstarke Chips für parallele Prozessausführung verfügen. Während z.B. ein KI-Trainingsvorgang mit so einem Hardware-System unter Umständen nur wenige Minuten oder Stunden dauert, kann dies mit normalen Notebooks oder PCs ohne gute Grafikkarte gerne Tage oder gar eine Woche dauern.

Cloud-Services:

Typischerweise vermeiden Entwickler oder Firmen gerne die Abhängigkeit und den Wartungsaufwand eigener Hardware und nutzen daher eher spezialisierte Cloud-Anbieter. Hierbei muss man natürlich darauf achten, dass der Cloud-Anbieter nicht auch wieder nur normale PC-Hardware verwendet, sondern spezialisierte Hardware für Machine Learning bzw. KI (z.B. mit Chips von Nvidia). Stichwort AI Cloud-Computing.

Diese Cloud-Services bieten meist flexible Tarife, die nach der Anzahl und Art der genutzten Prozessoren (z.B. 4 Cores) sowie vom Speicher (z.B. 16 GB) abhängen. Meist kann man diese mitten im Monat oder sogar nach nur wenigen Stunden wieder abschalten und zahlt dann nur die Stunden, in denen die Hardware tatsächlich für einen reserviert war. Die Preise beginnen hier teilweise deutlich unter 100 EUR für kleine Testsysteme und kosten dann je nach Anwendungsfall und Last produktiv meist einige Hundert EUR.

LLM-APIs als Low-Profile-Lösung:

Mit minimaler Hardware-Ausstattung kommt man nur aus, wenn man die Schnittstellen (APIs) der GPT-Modell-Betreiber, z.B. die OpenAI-API, nutzt und direkt deren Chatbot mit Fragen und Trainings füttert. Man entwickelt dann nur Software, die mit diesen Schnittstellen kommuniziert, und kann so z.B. einen Custom-Chatbot programmieren, ohne große KI-Hardware vorhalten oder in der Cloud mieten zu müssen. Diese Dienste rechnen dann die Nutzung ihrer API nach Last bzw. z.B. Tokens, also Datenmenge, ab.

Das ist zwar ein praktikabler Weg und kann die Lastverteilung erleichtern, ist jedoch häufig aus Datenschutzgründen problematisch. Die Trainingsdaten und Anfragen werden an die Chatanbieter übermittelt und könnten für das Training ihrer Modelle verwendet werden. Daher sollte das Kleingedruckte der Nutzungsbedingungen genau geprüft werden.

Lokale oder mobile Geräte mit KI:

Möchte man kleine, evtl. mobile KI-Systeme, z.B. für einen mobilen Terminal oder ein kleines Gerät, entwickeln, so gibt es auch hierfür geeignete kleine Einplatinen-Computer, im Bereich von 200 bis 800 EUR beginnend. Hier ist vor allem Nvidia mit seiner Jetson-Reihe (z.B. Jetson Nano für Bilderkennung oder Jetson Xavier für kleine Sprachmodelle) eine gute Wahl.

Werfen Sie einen Blick auf meine 'Leistungen und Lösungen' – vielleicht ist das Passende für Sie dabei.