29.01.2023 12:32

zuletzt geändert am 23.01.2023

Was ist Künstliche Intelligenz (KI), wie funktioniert sie und was macht sie mit und aus uns Menschen?

Wenn ich diesen Artikel veröffentliche, wird die Künstliche Intelligenz von Google ihn lesen, analysieren und bewerten. Am Ende wird er an irgendeiner millionsten Stelle aller Daten im Google-Ranking eingeordnet sein. Und wenn jemand mit Hilfe der Google-KI-Maschine danach sucht, dann kann es sein, dass dieser Artikel angezeigt wird. Das wäre das Grundmuster wie Google-KI in Millionen von Fällen täglich funktioniert.

Im Fall des vorliegenden Artikels wird die Google-KI-Maschine jedoch den Artikel nicht beachten und nicht zur Suche bereitstelllen. Warum? Weil die Google-KI-Maschine selektiert und zensiert. Die Google-KI beeinflusst also meine Arbeit negativ.

Wie kann das geschehen? Um das zu erklären, fangen wir mit der nächsten Frage an.

Wie entsteht Künstliche Intelligenz?

Damit Maschinen Künstliche Intelligenz besitzen, müssen Menschen sie programmieren und die Programme mit unendlich vielen Daten füttern. Die Programme sind so geschrieben, dass sie beginnen aus den Massen an Daten Muster zu erkennen. Ist das Ergebnis der Mustererkennung falsch, muss das Programm so lange angepasst werden, bis das Ergebnis richtig wird. Die richtige Erkennung eines Musters ist dann vollendet, wenn das Programm alle dafür notwendigen Regeln beinhaltet. Das heißt, vom Menschen in ein Programm eingegebene Regeln verarbeiten Massendaten und führen zur Erkennung.

Die Erkennung eines Kreises statt eines Quadrats wäre trivial und die Regeln des Programms minimal. Die Erkennung eines sich hinter bewegenden Blättern versteckenden Gesichts verlangt jedoch nach extrem komplexen Regeln. Die Regeln sind in vielfältiger Weise anzupassen und Daten sind massenweise in das Programm einzuspeisen. Wir sprechen von der Trainingsphase oder dem Lernprozess eines Programms.

Daten entscheiden über KI

Bei diesem Lernprozess spielt die Datenqualtät eine entscheidende Rolle. Denn die eingespeisten Daten müssen die Komplexität der Realität vollständig widerspiegeln. Nur dann kann der Lernprozess, d.h. die Anpassung der Regeln, zum erfolgreichen Ergebnis führen. Würde man das Programm nur mit Babygesichtern und mit Blumenblättern füttern, würde ein Erwachsener hinter einem Laubbaum nie erkannt werden. Das gleiche Problem existiert im Zeitverlauf, weil Daten sich im Laufe der Zeit verändern. Daten müssen demzufolge auch aktuell sein.

Das Training ist abgeschlossen, wenn das Programm alle Gesichter hinter allen Pflanzen fehlerfrei entdeckt. Nun kann das Programm in der Maschine sich selbst überlassen werden und es wird zur Künstlichen Intelligenz.

Regeln in Netzen

Was sind Regeln? Im Grunde genommen handelt es sich um nur zwei Fakten, aus denen Regeln bestehen. Einmal die Erkennung von wahr oder falsch und zum anderen die Verknüpfung von wenn mit dann. Wenn die Farbe rot ist, dann tue nichts. Wenn die Farbe nicht rot ist, dann wende die nächste Regel an. Auf dieser einfachen Ebene käme man aber nie zum Ziel, denn um komplexe Vorgänge mit dieser einfachen Logik abzubilden, bräuchte man unendlich viele und nicht mehr beherrschbare Regeln.

Die Wissenschaft griff daher zu neur(on)alen Netzen.

Prof. Dr. Patrick van der Smagt schreibt darüber in einem sehr lesenswerten Artikel wie folgt.

Neurale Netze gehören heutzutage zu den mächtigsten statistischen Werkzeugen eines Machine-Learners, dessen Interesse es ist, Zusammenhänge zwischen Daten zu finden. Mathematisch schreibt man gerne p(y|x), das heißt, ich suche die Wahrscheinlichkeit von (Entscheidung) y bei gegebener (Beobachtung) x, z. B: die Wahrscheinlichkeit p, dass in einem bestimmten Bild x, ein Baum zu sehen ist (y=1) oder nicht (y=0). Dank neuralen Netzen ist es heutzutage eine relativ einfache Aufgabe. Vorausgesetzt natürlich, dass genügend Bilder „mit“ bzw. „ohne“ Baum vorliegen, und dass jemand sich die Mühe gemacht hat, diese Bilder dann auch entsprechend zu kategorisieren.

Quelle: Künstliche Intelligenz verstehen, ICC-Germany-Magazin, Nr. 08

Daten, Regeln, Wahrscheinlichkeiten

Als erstes lernen wir daraus, dass Daten nicht nur massenweise vorhanden sein müssen, sondern dass der “Programmierer” sie kategorisieren muss. Er muss die Bedeutung der Daten festlegen. Die Daten müssen eine definierte Qualität besitzen. Dann kann die Regel im Programm, die man sich nun wie einen Knotenpunkt in einem riesigen Netz vorstellen kann, wie oben beschrieben nach richtig (1) oder falsch (0) angewandt werden. Der Trick in neuronalen Netzen ist nun aber nicht nur die Einführung einer wenn/dann-Beziehung, sondern der Regel wird eine Wahrscheinlichkeit zugeordnet. Es wird nach der Wahrscheinlichkeit von richtig oder falsch gesucht. Es gibt nicht mehr nur entweder/oder, sondern auch noch vielleicht. Man kann sagen, diese Ergänzung ist der Geburtsort maschineller Intelligenz, wie gleich noch zu sehen sein wird.

Künstliche Intelligenz
Netzwerk, Photo by Solen Feyissa on Unsplash

Zunächst halten wir aber nochmals das Grundmuster Künstlicher Intelligenz fest. Es besteht darin, dass man sich ein gigantisches Netzwerk mit ebenso gigantisch vielen Knotenpunkten vorstellen kann, in das massenweise kategorisierte Daten fließen. In jedem Knotenpunkt werden die Daten durch Regeln verarbeitet und mit Wahrscheinlichkeiten versehen, um dann an weitere Knotenpunkte zur weiteren Verarbeitung geschickt zu werden. Am Ende dieses Durchmarsches durch das neuronale Netz liefert die Maschine das Ergebnis, die Erkenntnis. Das ist Künstliche Intelligenz, oder doch noch nicht?

Der Trick mit der Wahrscheinlichkeit

Nicht ganz, denn wir wollten uns noch etwas genauer mit dem Thema Wahrscheinlichkeit befassen. Im ersten Schritt legt der Prorammierer eine Wahrscheinlichkeit für falsch oder richtig fest. Während des Trainings ist die Wahrscheinlichkeit so lange anzupassen bis das Ergebnis stimmt. Das ist nicht nur ein elendig langwieriger Prozess, sondern ein in einem umfangreichen neuronalen Netz nicht mehr bewältigbarer. Was also lag näher als der Maschin zu sagen, kümmere dich doch selbst darum. Dazu war es notwendig “über” der Regel eine weitere einzubauen, in der die Anpassungsarbeit der Wahrscheinlichkeiten zu erfolgen hatte. Auch diese Prinzip hatte man im Laufe der Zeit der Maschine zur Selbstaufgabe in einer weiteren “Überebene” übergeben und ihr damit das selbständige Lernen beigebracht. Die Maschine begann selbst zu steuern, an welchen Wahrscheinlichkeiten sie so lange drehen musste, dass das beste Ergebnis herauskam.

Das ist die Künstliche Intelligenz.

Was ist Künstliche Intelligenz?

Einfach zusammengefasst: Künstliche Intelligenz umfasst nach dem Gesagten: Datenauswahl, Algorithmen sowie Trainings- und Lernprozesse von Maschinen. Maschinen begannen zuerst an Hand unendlich vieler Beispiele, etwas zu erkennen und in Folge dessen Aufgaben eigenständig auszuführen. Mit fortschreitender Selbststeuerung der Maschinen lernen sie aus Erfahrungen, sich an neue Eingaben anzupassen und damit gelingt es (ihnen) schließlich, menschenähnliche Aufgaben zu erfüllen.

Wohin führt Künstliche Intelligenz?

Mit der Übergabe der Anpassungsarbeit für Wahrscheinlichkeiten und sogar für Regeln an die Maschine ergab sich die Loslösung der Maschine aus der Obhut des Menschen. Als Folge daraus ist der Mensch schon ab einer relativ geringen Komplexität der KI nicht mehr in der Lage, die von der Maschine im neuronalen Netz vorgenommenen Änderungen nachzuvollziehen. Damit kommen wir zu dem alles entscheidenden und kritischen Punkt mit der Frage, werden Maschinen eines fernen Tages sich bei der Ausführung ihrer vom Menschen eingegebenen Aufgaben nicht nur losgelöst haben, sondern eine Eigenständigkeit entwickeln?

Die Forschung im Rahmen der Künstlichen Intelligenz zielt eindeutig auf “selbstbewusste Maschinen”. Sie sollen sowohl eigene Gedanken und Gefühle besitzen, als auch die anderer verstehen. Ab diesem Entwicklungsschritt stellt sich die Frage, wer hat das Heft des Handelns und Entscheidens noch in der Hand? Der Mensch oder die Maschine? Von diesem Punkt ist die Menschheit wohl noch viele Jahre entfernt. An einem anderen Punkt ist sie jedoch schon längst angekommen. An GOMMIC.

Wo gibt es überall Künstliche Intelligenz?

Schon fast überall. Und deswegen schaffe ich mit GOMMIC einen künstlichen Begriff, der die gesamte existierende KI mit direktem Kundenbezug repräsentiert.

GOMMIC= GOgle + Meta + MICrosoft + die KI aller anderen Kundensysteme

Auf GOMMIC treffen wir natürlich nicht nur bei den Top Drei Google, Meta und Microsoft, sondern bei vielen großen Konzernen. Denn sie alle sammeln massenweise die Daten ihrer Kunden und Prozesse, um mit den Algorithmen ihrer KI-Maschinen den maximalen Kundennutzen zu erreichen, der schlussendlich zu maximalem Profit der Anbieter führen soll.

Wirkung von KI

Zum Beispiel sammelt die Amazon-KI alle Daten der Kunden und zusätzlich alle nützlichen Daten aus dem Internet. Die Amazon-KI stellet dann fest, was die Kunden tun, welche Vorlieben und Ablehnungen sie haben, welche Wünsche sie bewegen, usw. Das heißt KI lässt in jedem Fall ein Abbild des Menschen entstehen, das von der KI als Persönlichkeitsprofil gespeichert wird. Denn die Amazon-KI will wissen, welche Produkte einzukaufen sind, um die Kunden zu begeistern, zu halten und neue anzulocken. Die Amazon-KI will das beste Angebot für die meisten Kunden bieten können.

Dass es die Kunden selbst sind, die durch ihr Verhalten Amazon-KI füttern und somit den Warenkorb festlegen, den die KI schließlich zum Kauf anbietet, offenbart einmal mehr die enorme Bedeutung der Daten für die KI. Was nach dem Start der Zusammenarbeit zwischen Verbraucher und KI folgt, ist dann aber ein immer enger werdender Regelkreis zwischen Nachfrage und Angebot. Der Verbraucher bestimmt primär, was er wünscht, aber die KI bestimmt im Laufe der Zeit, was sie den Kunden anbietet. Es kommt zu einer Uniformität, die sich am Ende nur mehr träge oder gar nicht mehr auf Kundenwünsche einstellt. Es kommt zum Mainstream! Der uniforme Verbraucher wird geschaffen.

KI fast überall

Was im Beispiel für Amazon-KI gilt, gilt für alle anderen KI-Systeme. Das sind Streamingdienste wie Spotify oder Netflix. Es sind Warenhäuser, gleich ob Einzelhandel oder Möbelketten. Das gilt für Medien, gleich ob Verlage, Zeitungen oder Internetpublikationsplattformen. Ja, es gilt selbst für Autohäuser oder Apotheken. Überall wo Kundenwünsche eine Rolle spielen, hat KI bereits Einzug gehalten, sammelt Daten, wertet aus und bestimmt das Angebot. Überall dort, wo sich die Insatllationskosten für eine KI-Maschine lohnen, wird KI weiter Einzug halten. Und der Einsatz von KI erfolgt natürlich nicht nur in Geschäftszweigen, bei denen der Kunde im Vordergrund steht. Auch bei den verschiedensten Dienstleistungen und der Prozesssteuerung spielt KI eine immer größere Rolle. Z.B. im intelligenten Haus, der Robotik, bei Sprach- und Übersetzungssysteme, Suchmaschinen, autonomen Fahren, Produktionssteuerung und vielem mehr.

Wie beeinflusst uns Künstliche Intelligenz heute schon?

Während uns Menschen die KI in einem Staubsaugeroboter überhaupt nicht beeinflusst und wir uns ausschließlich über das gute Funktionieren und die erledigte Arbeit freuen, schaut dies bei GOMMIC völlig anders aus.

Erfassung personebezogener Daten

Die Erfassung von personenbezogenen Daten steht im Zentrum jeder GOMMICKI, denn ohne diese Daten geht gar nichts. Also braucht die GOMMICKI möglichst viele Personendaten und erreicht dies auch durch eine umfassende Verfolgung der Menschen. Die Menschen erhalten gewissermaßen einen Peilsender, über den alle ihre Tätigkeiten an die GOMMICKI bekannt gegeben werden.

Praktisch jedes elektronisch oder digital funktionierende Gerät stellt einen Peilsender dar, der Daten an die GOMMICKI überträgt. Die GOMMICKI weiß, was Benutzer auf ihren Geräten tun, denn sie fordert für die Nutzung ihrer Dienste, dass der Kunde im Gegenzug dafür seine Daten abliefert. Zusätzlich zu allen Informationen, die die Menschen zum Beispiel mit ihrem Smartphone liefern, verfolgt die GOMMICKI auch den Weg jedes Benutzers. Sei dies über die GPS-Daten des Smartphones oder des Autos oder über die Spuren im Internet. Damit dies auf einfache Weise gelingt werden dem Benutzer des Internets Peilsender in Form von Cookies angeklebt. Damit kann die GOMMICKI die Spur der Benutzer mühelos verfolgen. Dass alle Daten und Tätigkeiten erfasst werden, die in Zusammenhang mit der Nutzung eines Benutzerkontos stehen, versteht sich schon von selbst.

Einfluss auf den Menschen

Wir haben das Prinzip, wie die GOMMICKI uns beeinflusst, bereits am Beispiel von Amazon erlebt. Es besteht in der Verurteilung zum Mainstream. Auch ohne KI ist es wesentlich leichter, 100 Menschen mit nur einem Essensmenu zu versorgen als alle individuellen Wünsche zu berücksichtigen und 25 Menus vorzuhalten. Daher bündelt die GOMMICKI die Interessen der Kunden, legt die Schwerpunkte der Interessen fest und liefert primär oder auch ausschließlich nur noch Angebote aus diesem Sortiment. Der Kunde erhält nur noch ein sich verengendes Angebot und verliert die Freiheit aus einem uneingeschränkten Spektrum wählen zu können. Die Vorselektion betrifft nicht nur das Angebotsspektrum selbst, sondern auch seine Ausprägungen in Form von Preisen, Orientierung und Verhaltensweisen. Reichen Menschen werden teurere Angebote gemacht, konservativ orientierte Menschen erhalten andere Angebote als Kids, risikobewusste Menschen andere als vorsichtige. Die GOMMICKI führt einerseits zur Vermassung und andererseist zur Gruppenbildung in Form der sogenannten Blasen.

Was für alle Menschen, die sich in der Masse und in Blasen wohl fühlen, eine Steigerung des Wohlbefindens bedeuten mag, führt für Individualisten zum Ausschluss. Individualisten und selbstbewusste Menschen können in uniformen Systemen nur leben, sofern sie Teile davon kritisch nutzen. Ihre Individualität und ihre Autonomie können sie aber nur außerhalb solcher System wie der GOMMICKI bewahren und leben.

Es steht zu befürchten, dass die GOMMICKI die Masse der Menschen gleichschaltet.

Meinungsfreiheit, Medien und Google

Die Uniformität im Konsumverhalten kann man eventuell noch akzeptieren. Eine Uniformität der Medien bedeutete hingegen den Tod der Demokratie und der persönlichen Meinungsfreiheit. Und diese Uniformität droht, wenn Künstliche Intelligenz im Medienbereich nicht ethisch sauber eingesetzt wird.

Jahr des Durchbruchs für künstliche Intelligenz und ihre Anwendung im Journalismus.
KI-Chatbots wurden in den letzten Jahren häufig und zu Recht verspottet, aber die Einführung von ChatGPT von OpenAI hat die Debatte verändert. Seine Geschwindigkeit und Fähigkeiten sind beeindruckend und beängstigend zugleich.
Einige betrachten ChatGPT als einen der größten technologischen Fortschritte seit der Erfindung des Internets. Es ist der Teil eines breiteren Trends namens „generative KI“, der es Computern ermöglicht, nicht nur Wörter, sondern auch Bilder, Videos und sogar virtuelle Welten aus nur wenigen Textanregungen zu erstellen. Der entscheidende Punkt ist, dass generative KI es Computern ermöglicht, nicht nur bestehende Prozesse effizienter zu gestalten, sondern auch eine Reihe bestehender Assets zu nutzen, um etwas Neues zu schaffen. All dies wird in den nächsten Jahren wahrscheinlich zu einer Explosion von automatisierten oder halbautomatischen Medien führen – zum Guten oder zum Schlechten. Es wird einfacher denn je sein, „gut aussehende“ und höchst plausible Multimedia-Inhalte zu erstellen, aber es wird auch schwieriger denn je sein, das Echte von dem zu unterscheiden, was gefälscht, irreführend oder manipuliert ist. Je realer diese Möglichkeiten werden, desto realer werden auch die ethischen und regulatorischen Dilemmata. Deepfakes wurden bereits verwendet, um nicht einvernehmliche Pornografie zu erstellen, Betrug zu begehen und Desinformationskampagnen anzuheizen. Gleichzeitig stehen wir an der Schwelle zu einer neuen Welle der Disruption, da Technologien der künstlichen Intelligenz beginnen, sich auf die reale Welt auszuwirken, was einerseits zu mehr Effizienz und Automatisierung führt, aber auch ermöglicht, dass Inhalte auf überraschende und unvorhersehbare Weise neu gemischt werden. Dies eröffnet neue Möglichkeiten bei der Erstellung und Verbreitung intelligenterer Inhalte. Aber es wird auch neue Dilemmata mit sich bringen, wie diese leistungsstarken Technologien auf ethische und transparente Weise genutzt werden können.

Quelle: Reuters Institute for the Study of Journalism, Report: “Journalism, media, and technology trends and predictions 2023”, by Nic Newman on Tuesday 10 January 2023 – übersetzter Auszug aus dem englischsprachigen Original.

So lange Redaktionen die von generativer KI automatisch erstellten Texte erst nach Überprüfung freigeben, sind Journalismus und Meinungsfreiheit nicht in Gefahr. Die Situation kippt, wenn KI gänzlich automatisiert zum Einsatz kommt. Dann ist die Publikation massenweiser Falschmeldungen in Einzelfällen nicht mehr ausgeschlossen. Damit wird der Manipulation Tür und Tor geöffnet, so dass beispielsweise Wahlentscheidungen einseitig beeinflusst werden können.

Neben derartigen Einzelaktionen spielt die KI dauerhaft installierter Systeme jedoch eine andere und größere Rolle bei der Manipulation von Meinungen. Google liefert dafür einen Prototyp.

Die Google-KI sammelt Millionen und Abermillionen von Daten aus dem Internet und bewertet sie in einer intransparenten Form. Die Google-KI entscheidet, welche Informationen aufgenommen werden und ob sie später im Rahmen der Suche überhaupt bzw. wie angezeigt werden. Diese Verarbeitung erfüllt sowohl den Tatbestand der Zensur als auch der Manipulation. Denn die Google-KI entscheidet darüber, was wir angeboten bekommen und was nicht. Und im Fall meiner Website entscheidet Google-KI in den allermeisten Fällen meine Artikel nicht zu berücksichtigen. Das Warum bleibt ein Geheimnis.

Unsere Meinungsfreiheit wird also von mehreren Seiten durch KI bedroht.

Wie wird unser Leben morgen sein?

Man muss davon ausgehen, dass bei exponentiell wachsendem Wissen, die Installation “selbstbewusster Maschinen” noch in diesem Jahrhundert statfinden wird. Man bedenke, dass eine nachhaltige und ernsthafte Entwicklung der Künstlichen Intelligenz praktisch erst in diesem Jahrhundert begann. Und man verinnerliche, welch gigantischer Fortschritt bereits in diesen zwei Jahrzehnten gelang. ChatGPT schreibt selbständig ganze Aufsätze und Diplomarbeiten, das autonome Fahren steht an der Türschwelle und Suchmaschinen sind schon ein alter Hut.

Der Einsatz der KI wird in allen Bereichen des menschlichen Lebens weiter zunehmen und ja, selbstbewusste Menschen könnten mit uns interagieren und eventuell die Führungselite der Zukunft sein. Ob dies für die Humanoiden von Vor- oder Nachteil sein würde, steht in den Sternen. Und ob das tasächlich passieren wird, hängt nicht zuletzt von der weiteren Entwicklung des Klimas ab. Denn im schlimmsten Fall überlebt die menschliche Spezies nicht und am Ende einer fiktiven Entwicklungsgeschichte existieren auf der Erde nur die von den Menschen geschaffenen selbstbewussten Maschinen, die das tödliche Klima ohne weiteres aushalten.

Das ist aber Science Fiction. Keine Science Fiction ist die Tatsache, dass KI unser Leben mannigfaltig beeinflusst und verändert.


Im Übrigen bin ich der Meinung, Sie müssen etwas für den Klimaschutz tun.