Kilian Springer

Was ist AI, wie funktioniert Sie und wie lässt sich AI nutzen?

Was ist AI, wie funktioniert sie und wie lässt sich AI nutzen?

Viel muss man wohl zum Hype der Stunde im Intro nicht mehr sagen. So ziemlich jede Person hat sich schon mal in irgendeiner Form mit AI, Deep Learning oder mit ChatGPT beschäftigt, ob sie es wollte oder nicht. Die Reaktionen reichen von “ein neues Zeitalter hat begonnen” bis “der Weltuntergang ist da”, einzig Desinteresse am Thema ist wohl eher selten.

In meinen ersten Artikel zur Thematik möchte ich leicht verständlich die Funktionsweise von “AI” erläutern und euch einen möglichen Umgang bzw. deren Nutzen vorstellen. Letztlich soll man nicht nur verstehen, wie man mit AI arbeitet, sondern auch was diese eigentlich zu leisten vermag. Zumindest nach dem aktuellen Stand.

Mein Fahrplan

Der Fahrplan, um Zeit zu sparen. Springe gleich zum wichtigen, wenn du willst.

Ich beginne mit einem sehr kurzen historischen Abriss zu AI und werde im Anschluss auf die grundlegende Funktionsweise sowie auf die Technologie von AI eingehen. Im Anschluss konzentriere ich mich auf die Spielarten von AI mit Schwerpunkt LLM oder GPT. Danach gibt es noch ein paar warme Worte zur Nutzung von AI, bevor ich dann mit einem Ausblick meine Ausführungen abschließe.

Inhaltsverzeichnis

Wo kommt AI her? - Kleine Historie

Die Historie von AI-Systemen liegt weiter zurück als man denkt. Die grundlegenden Konzepte und Ideen zur heutigen AI, wie wir sie kennen, liegen bereits in den 1950er Jahren. In dieser Zeit wurde auch das Konzept der neuronalen Netzwerke entwickelt.

In den 1980er Jahren wurden dann neuronale Netzwerke in Software abgebildet und mittels Machine Learning trainiert. Das kann man sich jetzt aber ganz rudimentär vorstellen.Als Unterart zu dem Machine Learning wurde in den 2000ern Deep Learning entwickelt. Dies ermöglichte nun erheblich komplexere Muster, welche wir von heutiger AI kennen.

Ein wichtiger Meilenstein für Machine Learning war dann der Sieg von IBM’s Deep Blue im Jahr 1997, welches den damals amtierenden Schachweltmeister Garry Kasparov besiegen konnte.

2016 schaffte es dann Google DeepMind’s AlphaGO, den aktuellen Weltmeister Lee Sedol im Go zu schlagen, welches als ungemein schwerer galt.

2017 veröffentliche ein Team von Google ein Paper zu Transformern, welches erlaubte auf erheblich schneller Art und Weise eine riesige Datenmenge zu verarbeiten. Dies war die Grundlage für Large Language Models (LLM) wie GPT (Generativ Pre-Trained Transformer), die uns nun zu diesem Artikel und eurem Interesse führen. 😉

ChatGPT wurde dann am 30.11.2022 veröffentlicht und hat erneut die Aufmerksamkeit der Welt auf AI gelenkt.

Was versteht man unter AI?

AI (deutsch “KI”) steht für künstliche Intelligenz und bezieht sich auf die Fähigkeit von Maschinen und Computern, menschenähnliche kognitive Funktionen auszuführen, wie z.B. Wahrnehmung, Lernen, Problemlösung und Entscheidungsfindung. AI umfasst ein breites Spektrum von Technologien und Anwendungen, einschließlich maschinellem Lernen, Natural Language Processing, Computer Vision und Robotik. Diese Definition wird präsentiert von ChatGPT. Das war dann aber auch der einzige Support. Ich schwöre🤞

Selbst nutze ich den Begriff AI nicht ganz so gern, da er einen leicht auf den falschen Pfad führt. Er ist viel stärker durch Hollywood und die Fantasien der Menschen geprägt als durch empirische Forschung. Schon allein der Begriff Intelligenz kann nicht eindeutig definiert werden. Weder wissen wir wie die Intelligenz des Menschen funktioniert, noch verstehen wir im Kern wie eine AI eigentlich ein Ergebnis produziert. Das haben wir Menschen so gesehen mit der AI gemeinsam.

Dennoch gibt die Definition einen wichtigen Grundgedanken wieder. AI kann als Software menschenähnliche Fähigkeiten ausführen, die dem Denken ähnlich sind und von “normaler” Software nicht oder nur unter einem erheblichen Aufwand ausgeführt werden könnte.

Schwache und Starke AI (AGI)

Bei den AI unterscheiden wir zwischen “schwacher AI” und “starker AI”. Erstere kann “nur” einzelne Aufgaben erfüllen, wie das Erkennen von Bilder oder das Erzeugen von Texten und letztere kann eine Vielzahl von Aufgaben und Eingaben verarbeiten.

Starke AI nennt man auch AGI (Arficial General Intelligence) und es könnte sich dabei dann, um die allwissende AI handeln, welche sich selbst weiterentwickeln kann und jeder Aufgabe gewachsen ist. Das wäre dann das Schreckgespenst und der große Hoffnungsträger in einer “Person”. Abhängig davon, wen man fragt, steht die Entwicklung dieser AI kurz bevor oder wir sind noch weit weg davon. So richtig kann das niemand genau sagen. Ich gehe davon aus, dass wir noch ein wenig Zeit haben.

Wie funktioniert AI?

AI ist eine Software, welche auf der Methode des Machine Learning oder vielmehr der Unterart des Deep Learnings beruht. Dieser Methode liegt wiederum ein neuronales Netzwerk zugrunde, welche mit Hilfe von “Neuronen” und zu geordneten Werten (besser Gewichten) bestimmte Fähigkeiten erlernen kann. Das neuronale Netzwerk ist mit seiner Funktionsweise einem Gehirn nachempfunden und bildet so dessen Fähigkeit zur Informationsverarbeitung nach.

Diese Fähigkeiten kann eine normale Software nicht abbilden, da diese für jeden Fall einen festgelegten Ablauf benötigt. Gebe ich also einer “normalen” Software bspw. Aufgabe, dass diese eine Ente erkennen soll, dann müsste ich für jede mögliche Situation (fliegend, sitzend, laufend, hell, dunkel usw.) vorgeben, wie man die Ente erkennen kann. Dies ist logischerweise nicht möglich. Die AI lernt wiederum eigenständig mit Hilfe von passenden Datensätzen und menschlicher Hilfe, ein bestimmtes Tier zu erkennen.

Welchen Einfluss hat die Mathematik?

Vereinfacht gesagt handelt es sich bei neuronalen Netzwerken um eine große Ansammlung mathematischer Formeln aus der statistischen Mathematik. Jedem Punkt (Neuron) im Netzwerk ist eine solche Formel zugeordnet sowie ein bestimmter Wert (Bsp. 0,65 von 1). Diese Werte und die mathematischen Formeln bestimmen dann immer einen gewissen Output und die Art wie Fehler abtrainiert werden.

Welche Formeln genutzt werden, welche Architektur das Netzwerk im Kern hat und wie im Anschluss ein Netzwerk trainiert wird, ist nicht nur bestimmend für den Output, sondern auch für den Input. Somit können unterschiedliche Netzwerke besser Bilder verarbeiten und andere besser Texte. Vorliegend wird es eher in den weiteren Ausführungen um Language Models (ab hier dann “LM”) gehen, welche im Bereich Legal Tech wohl am wichtigsten sind.

Learning, Training und Finetuning

Damit eine Deep Learning Software eine Fähigkeit erlernen kann, muss diese, wie auch wir Menschen, erstmal lernen, das nennen wir – ganz kreativ – “Learning”. Die AI braucht hierfür im ersten Schritt sehr viele unterschiedliche und möglichst qualitativ hochwertige Daten, an denen diese erstmal allgemein eine Fähigkeit erlernt, wie bspw. das Erstellen von Texten.

Im Anschluss oder auch parallel startet das Training. Hier trainiert die Software ihre erlernte Fähigkeit, um diese besser nutzen zu können. Das Training ist zunächst darauf ausgerichtet, dass die erlernte Fähigkeit verbessert wird. In unserem Bespiel, soll dann die AI immer bessere und sinnvollere Texte schreiben.

Die letzte Stufe ist das Finetuning, welches genutzt wird, um der AI bspw. eine bestimmte Richtung anzutrainieren oder bestimmte Verhaltensweisen abzutrainieren. Ein Fall für das Antrainieren, wären bspw. die Erstellung von Verträgen und ein Fall des Abtrainierens das Beleidigen von Menschen. Letzteres ist auch für Menschen recht schwer. 😉🤬

Methoden des Lernens

Wenig überraschend gibt es einige Methoden, um die vorliegenden Lernstufen einer AI zu bewältigen. Diese werden auch mit der Ausgereiftheit der AI immer anspruchsvoller. Beispielsweise kann man gerade in den ersten Ebenen eine andere Software oder AI zum Training oder Learning der AI nutzen. Beim Finetuning sind wir jedoch meist noch auf Menschen angewiesen. Das wurde auch in sehr großer Masse bei GPT von OpenAI für ChatGPT durchgeführt.

Der Ausgang dieser Mühen kann immer nur so gut sein, wie unser Verständnis der Prozesse innerhalb einer AI ist. Da dieses jedoch noch recht eingeschränkt ist, findet hier recht viel über die Methode “trial and error” statt.

Insbesondere beim Training und beim Finetuning ist aktuell noch viel Potential aus den AI zu schöpfen. Durch das fehlende Verständnis des “Denkvorgangs” fällt es beispielweise noch schwer dafür Sorge zu tragen, dass keine falschen Informationen durch GPT-4 verbreitet werden.

Wie können wir zum Beispiel einer AI das Konzept von richtig und falsch beibringen, wo unsere Logik für diese Begriffe einer AI wohl nicht zugänglich sind. Wie sorgen wir für eine logische Argumentation, mit der wir einer AI Konzepte und Regeln beibringen können, welche nicht nur aus dem Verbot einzelner Begriffe bestehen? Wie kann die AI selbst in einem vom Mensch kontrollierten Rahmen weiterlernen? Das sind jedenfalls noch alles Herausforderungen, welche uns in den kommenden Monaten und Jahren beschäftigen werden.

Was kann AI? - LLM und Generative AI

Wie bereits erwähnt handelt es sich bei dem grundlegenden Modell hinter ChatGPT um GPT-4 (3.5). Dies ist ein LLM und gehört zu der Klasse der Generative AI. Das sind solche AI, die etwas erstellen wie Bilder, Musik oder eben Texte. Dem gegenüber stehen die Discriminative AI, welche auf Wahrnehmung und Erkennung von Daten trainiert wurden. Dabei kann es sich bspw. um Bilder, Töne oder auch Sprache handeln.

Wie erstellt eine AI Texte?

Im Grundsatz macht die AI nichts anderes als zu raten welches Wort oder welcher Wortteil, das wird Token genannt, als nächstes kommen könnte. Die AI wurde darauf trainiert zu erkennen, wie sich Sprache zueinander verhält und welche Wort oder Wortteile (genannt Token) statistisch wie oft vorkommen.

Geben wir der AI zum Vervollständigen den Satz “Die Katze jagt […].”, weiß die LLM zunächst, dass hier wohl am häufigsten das Wort “Mäuse” kommt und am zweithäufigsten das Wort “Vögel” und dann vielleicht das Wort “Tiere” usw. Für jedes dieser Worte hat die AI auch noch eine Häufigkeit hinterlegt. Damit aber nicht immer das gleiche Ergebnis bei jeder Anfrage generiert wird, unterliegt die AI einer Beliebigkeit.

Wie stark diese Beliebigkeit Einfluss auf die Antwort der AI hat, lässt sich einstellen. Das führt also bei einer geringen Beliebigkeit immer nur zu den Alternativen “Mäuse” und “Vögel” und bei einer hohen Beliebigkeit vielleicht auch zu der Alternative “Hunde”, was jedoch nach unserem Verständnis recht unwahrscheinlich wäre.

Hier tut sich ein wichtiger Unterschied zu unserem Denken auf. Unsere Logik sagt uns, dass Hunde hier nicht passen können, sofern wir keinen Kontext haben. Sollte es also heißen. „Meine Katze ist ein Riese, sie jagt sogar Hunde!“, würden wir diese Logik “gestatten”, ohne Kontext jedoch nicht. Diesen Kontext würde die LLM nicht herstellen, sofern wir dies nicht verlangen.

Das „Raten“ von Wörtern macht die LLM dann so lange bis sie meint, dass es nun reichen würde. Wer darauf Einfluss haben möchte, wie lang die Antwort der AI ist, der schreibt dies in seinen Prompt.

Wie rede ich mit AI und was ist Prompten?

Unter prompten versteht man sehr kurz gesagt, die Eingabe von Prompts und etwas besser ausgedrückt die Eingabe von Befehlen an eine Generative AI. Die Generative AI ist darauf trainiert Sprache “zu verstehen” und lässt sich daher auch über diese steuern. Wichtig ist es, beim Prompten der Grundsatz “Garbage in, Garbage out”, also “Müll rein, Müll raus” zu verstehen. Wer keinen ausreichenden Prompt schreibt, der wird auch nie eine ausreichende Antwort erhalten. Wenn ich einen Vortrag über Spanien schreiben möchte, dann muss ich erwähnen, welche Themen dafür relevant sind und wie umfangreich dies sein müsste.

Ist der Prompt “Halte einen Vortrag über Spanien”, dann wird dieser vielleicht nicht ausreichen, um einen historischen Abriss über das Land zu machen. Dann sollte mein Prompt doch lieber heißen “Agiere als Schüler einer 10. Klasse. Erstelle einen Vortrag über die Geschichte Spaniens während des 20. Jahrhunderts mit dem Schwerpunkt zum spanischen Bürgerkrieg. Gib deine Antworten in ausführlichen Stickpunkten aus. Hebe in diesen die besondere Beziehungen Spaniens zu Deutschland hervor.

Die kann man jetzt natürlich länger ausführen und man kann natürlich auch noch neue Prompts hinterherschicken, sollte das Ergebnis nicht passen. Wahrscheinlich konnte man sich aber schon selbst als Mensch beim Lesen des zweiten Prompts ein viel klareres Bild von dem Vortrag machen als nach dem allgemein gehaltenen ersten Prompt.

In einem weiteren Artikel habe ich das Prompten nochmal genauer beschreiben.

Wichtig ist beim Prompten das Folgende:

Umso genauer ich den Task beschreibe, umso genauer ist das Ergebnis. Anders würden wir auch einen Mitmenschen nicht um einen Gefallen bitten. Die Besonderheit beim Prompten ist jedoch, dass mein Gegenüber, die AI, in verschiedene Rollen schlüpfen kann und mich auch nicht kennenlernt. Stellt euch somit vor, dass ihr mit einer euch unbekannten und etwas begriffsstutzigen Person redet, die aber wirklich beeindruckende Fähigkeiten hat.

Und wenn dann das Ergebnis rauskommt, bitte behandle es nicht so, als würde es von einer unfehlbaren Software kommen, sondern immer noch von dem dir unbekannten, etwas begriffsstutzigen Menschen. Dann bist du auf dem richtigen Weg. Aber wie schon Einstein gesagt hat, man soll ja sowieso nicht alles glauben, was im Internet steht. 😉

Wie verändert AI die Zukunft?

Zum Abschluss möchte ich gerne noch ein paar persönliche Worte bzw. mein Eindruck zu AI und deren Entwicklung mitteilen.

Ich bin der Überzeugung, dass die jetzige Generation der LLM die Arbeit von Wissensarbeitern erheblich verändern wird. Das hat auch schon vor ein paar Jahren die erkennende AI gemacht bzw. macht sie das noch immer, jedoch hat diese nicht den gleichen Impact auf unsere tagtägliche Arbeit gehabt.

Das größte Aushängeschild für AI ist aktuell ChatGPT, dabei handelt es sich letztlich um einen Chatbot, der auf Basis von GPT läuft. Es ist so gesehen die einfachste Form, eine solche AI zu nutzen und zudem auch weiterhin viele Daten zu sammeln.

AI wird in bestehende Programme aufgenommen werden und uns die Arbeit stark erleichtern. Wozu das führt und welchen Wert dann diese Arbeit noch hat, kann man kaum sagen.

AI wird in Form von Autonomus Agents uns gleich einer Alexa auf Steroiden bei unseren täglichen Aufgaben helfen können und bspw. Recherchen durchführen, Reisen buchen, E-Mails vorbereiten und in unserem Namen Software bedienen. Dabei lernt sie unsere Vorlieben kennen und wird immer besser dabei uns ganz gezielt individuell zu unterstützen.

AI wird eine Vielzahl von Medien für eingeschränkte Personen zugänglicher machen, wenn sie es noch nicht tut. Sie wird Sprachen simultan beim Sprechen übersetzen und sie wird wohl unsere Logistik übernehmen.

Zurecht müssen wir uns fragen, was dann noch für uns übrigbliebt und wie viel Kontrolle wir abgeben wollen. Es sollte nur klar sein, dass wir den Siegeszug nicht mehr aufhalten können, wir können es aber nach unseren Werten und Vorstellung regulieren. Darauf sollten wir uns konzentrieren.

Und ich werde dann natürlich noch darüberschreiben, was AI noch so kann und wie das funktioniert.

Danke für eure Aufmerksamkeit! 🙏🙏🙏

Wenn dir der Artikel gefallen hat und du keinen mehr verpassen willst, dann melde dich gerne bei meinem Newsletter an.

Damit erhältst du meinen akuellen Blogbeitrag und vielleicht den ein oder anderen interessanten Link oder Beitrag von Dritten direkt in dein Postfach.