Digitales ABC: A wie...

Artificial Intelligence; abgek. AI,
engl. für dt. künstliche Intelligenz, abgek. KI

Von Bruno Habegger · 26. September 2024

AI hat stark an Bedeutung gewonnen. Die Künstliche Intelligenz (KI, deutsche Übersetzung) gilt inzwischen als grösste Chance von Wirtschaft und Gesellschaft. Aber auch als Gefahr. 

Unter Artificial Intelligence (AI, dt. für künstliche Intelligenz, KI), versteht man Computersysteme, die mit bestimmten Methoden Lernen und Denken nachahmen. Dazu nutzen sie Wahrscheinlichkeitsaussagen – Grundvoraussetzung einer AI. Diese ist also nicht intelligent im menschlichen Sinn, sondern simuliert Intelligenz mit Hilfe mathematischer Auswertungen von Datenmaterial.

Der Begriff wird sowohl für die Systeme selbst als auch für die Lehre, ein Teilgebiet der Informatik mit Überschneidungen in Disziplinen wie Psychologie, Neurologie oder Philosophie, verwendet. Die Fähigkeit zu lernen und mit Wahrscheinlichkeitsaussagen umzugehen, gehört zu den Grundvoraussetzungen einer AI.

Geschichte
Mit der Veröffentlichung des Large Language Models (LLM) GPT 3 von OpenAI im Jahr 2021 ist aus den sogenannten KI-Wintern zwischen den 70-er und 90er Jahren eine heisser Trend geworden. Die Geschichte der künstlichen Intelligenz reicht in die Zeit vor dem zweiten Weltkrieg zurück, sogar viel weiter: Bereits im 17. Jahrhundert nahm man an, dass sich das menschliche Denken automatisieren lässt. Die Schlüsselerkenntnis für die moderne KI hatte aber erst der britische Mathematiker Alan Turing: 1936 legte er in einer theoretischen Forschungsarbeit den Grundstein für algorithmenverarbeitende Maschinen, die «Turingmaschine». 1943 zeigten dann ein Logiker und ein Neurophysiologe mit den MItteln der Mathematik, dass Nervenzellen im Gehirn im Prinzip alle logischen Operatoren sowie deren Kombinationen durchführen können, wenn sie zu Netzwerken zusammengeschaltet würden. Noch existierten keine Maschinen dafür.

Alan Turing lieferte wiederum die Vorgaben für die Entwicklung. Auf dem Ferranti Mark 1 im Jahr 1951 entstand die erste KI-Anwendung – dem Menschen weit unterlegen. Doch die Begeisterung unter Forschenden wuchs. Die Dartmouth-Konferenz im Sommer 1956 gilt bis heute als Geburtsstunde der KI: Der Begriff erschien zum ersten Mal auf einem Papier. Zehn Jahre später sorgte der erste Chatbot ELIZA für Aufregung und machte den Erfinder Joseph Weizenbaum in den folgenden Jahrzehnten zu einem der härtesten Kritiker der KI. Mit einfachsten Mitteln überzeugte der Chatbot die Studenten, dass sie mit einem Menschen sprächen. 2024 schaffte dann GPT-4 von OpenAI den Turing-Test. Er ahmte täuschend echt einen menschlichen Gesprächspartner nach.

Deep Dive

KI ist ein breites Feld und umfasst verschiedenste Technologien, die in ein System implementiert werden, um ein komplexes Problem zu lösen. Einfach gesagt: Eine KI kann aufgrund von «Eingaben» aus Beobachtungen über die Umgebung und sich selbst Schlüsse ziehen und als «Ausgabe» seine nächste Aktion berechnen und aus den eigenen Fehlern lernen. Sie bedient sich dazu verschiedener Methoden. Die zwei grundlegendsten sind:

  • Machine Learning (ML, dt. maschinelles Lernen) sind Algorithmen, die durch Trainieren von mathematischen Modellen aus Erfahrungsdaten Muster erkennen und für Prognosen verwenden. Je mehr Daten über längere Zeit verwendet werden, desto besser wird das System. ML findet beispielsweise Anwendung bei Produktempfehlungen von Online-Händlern oder vorausschauender Wartung.

  • Deep Learning (DL, dt. tiefgehendes Lernen) beinhaltet als Teilbereich des maschinellen Lernens künstliche neuronale Netze, Abstraktionen des menschlichen Gehirns mit Hilfe von Algorithmen. Zwischen Ein- und Ausgabe bildet sich eine innere Struktur. Komplexe Datenmuster lassen sich so verarbeiten.

  • Sogenannte «Generative KI» erzeugt mit Hilfe verschiedenster Modelle aus den Eingaben bzw. aus dem Trainingsmaterial neue Inhalte. Aktuelle KI-Systeme generieren Text, Videos, Fotos, Programmcode und in Zukunft wohl noch mehr. Sie basieren meist auf «Deep Learning». Das erfordert eine grosse Rechenleistung und einen hohen Energieeinsatz.

Neue Technologien
Data Science, die Extraktion von Wissen aus grossen Datenmengen, ist ebenfalls ein Teilbereich der künstlichen Intelligenz und bedient sich sowohl ML als auch DL. Die Disziplin hat sich zu Beginn des 21. Jahrhunderts mit den fortschreitenden technischen Möglichkeiten des Datensammelns und -auswertens (auch im Zuge von Cloud-Computing) etabliert.

Das Potenzial der Cloud nutzt auch AI as a Service (AIaaS). Das sind Dienste zum Beispiel für Bildklassifizierungen, die sich durch Feedback-Loops optimieren oder für andere kognitive Aufgaben wie etwa zur Unterstützung von Kundenkommunikation mit Chatbots. So vereinfacht zum Beispiel der digitale Verwaltungsassistent Abraxas Chatbot mit intelligenter Spracherkennung den Zugang von Bevölkerung und Unternehmen zu Daten und Diensten der öffentlichen Hand.

Die KI-Entwicklung hat gerade erst wieder an Fahrt aufgenommen. Ziel der Branche ist die Entwicklung einer sogenannten «Künstlichen allgemeinen Intelligenz». Diese soll in wenigen Jahrzehnten über einen menschenähnlichen Verstand verfügen. Ob das gelingt, ist offen. Doch schon heute zeigen die dümmeren Vorläufer einer solchen Technologie, welche Auswirkungen auf Gesellschaft und Wirtschaft sie haben. Darum werden der verantwortungsvolle Einsatz der KI und die Entwicklung einer KI-Ethik heftig diskutiert. Vorläufige Erkenntnis: Die KI ist Chance und Gefahr für die Menschheit zugleich.

KI entdecken, Chancen nutzen – mit Abraxas.
teaser-img
Mehr in unserem Themendossier #AbraxasIntelligence

Alle bisher erschienenen Buchstaben im digitalen ABC

Abraxas erklärt die wichtigsten Begriffe und Buzzwords der IT-Branche.
Bruno Habegger

Über Bruno Habegger

Bruno Habegger ist Abraxas-Magazin-Autor und Senior Communication Manager. Er verfügt über eine langjährige Erfahrung im ICT- und Energie-Bereich als Journalist, Contentproduzent und Berater. Er war Präsident einer Regionalpartei und an seinem damaligen Wohnort acht Jahre Mitglied der Sicherheitskommission.