Die Frage, ob Intelligenz von Computern oder Software reproduziert werden kann, hat in den letzten Jahren durch die rasante Entwicklung von großen Sprachmodellen (LLMs = Large Language Models) wie GPT neue Aktualität erhalten. Während LLMs erstaunliche Fähigkeiten in der Verarbeitung und Erzeugung natürlicher Sprache zeigen, bleibt die Frage offen, ob es sich dabei um Intelligenz im eigentlichen Sinn handelt, oder lediglich um eine (Sprach-)Kompetenz. Also Intelligenz oder Kompetenz?
In der Psychologie wird Intelligenz häufig als die Fähigkeit definiert, Probleme zu lösen, aus Erfahrungen zu lernen, neue Situationen zu bewältigen und abstrakt zu denken. Intelligenz-Tests, wie der IQ-Test, messen meist kognitive Fähigkeiten wie Logik, Merkfähigkeit und Sprachverständnis.
Howard Gardner stellte 1983 die Theorie der ↗multiplen Intelligenzen vor, die ein differenzierteres Bild zeichnen soll. Ihm zufolge gibt es 9 voneinander unabhängige Intelligenzformen, die verschiedene Arten menschlicher Fähigkeiten abbilden - von sprachlicher Begabung bis zur Selbstreflexion.
Linguistische Intelligenz beschreibt die Fähigkeit, Sprache bewusst und kreativ zu nutzen - beim Schreiben, Lesen, Argumentieren oder Erzählen. LLMs wie GPT sind speziell dafür trainiert worden und zeigen in diesem Bereich hohe Leistungsfähigkeit. Sie können komplexe Texte verfassen, stilistische Nuancen unterscheiden und kohärente Argumentationen erzeugen. Diese Intelligenzform ist diejenige, die LLMs am überzeugendsten simulieren.
Logisch-mathematische Intelligenz umfasst analytisches Denken, Mustererkennung, Abstraktion und mathematisches Verständnis. LLMs können nur scheinbar logische Aufgaben lösen. Ihre Leistung ist inkonsistent, insbesondere bei komplexen Schlussfolgerungen oder formalen Beweisen. Sie verfügen nicht über ein echtes Verständnis von Logik oder mathematischen Strukturen, sondern agieren rein statistisch.
Räumlich-visuelle Intelligenz bezieht sich auf die Fähigkeit, in Bildern zu denken, räumlich zu planen und visuelle Vorstellungen zu entwickeln - wichtig etwa für Architektur, Kunst oder Navigation. LLMs allein haben kein visuelles System und kein Raumverständnis. Diese Intelligenzform kann von LLMs nicht eigenständig ausgeübt werden.
Musikalische Intelligenz betrifft das Erkennen und Erzeugen von Rhythmen, Melodien und Harmonien. Zwar können LLMs Musik beschreiben oder Liedtexte erzeugen, aber sie empfinden keine Musik und haben kein Klangbewusstsein. Musik-KIs können mittlerweile komponieren, doch es fehlt ihnen das emotionale und kulturelle Verständnis musikalischer Ausdrucksformen.
Körperlich-kinästhetische Intelligenz ist die Fähigkeit, den eigenen Körper gezielt und differenziert einzusetzen, etwa bei Sport, Tanz oder Handwerk. Da LLMs keine physische Verkörperung besitzen, ist diese Intelligenzform für sie grundsätzlich nicht zugänglich. Selbst in Robotik-Anwendungen liegt die Kontrolle meist außerhalb des Modells.
Interpersonale Intelligenz meint die Fähigkeit, andere Menschen zu verstehen, mit ihnen zu kommunizieren und soziale Dynamiken intuitiv zu erfassen. LLMs können empathisch wirkende Texte generieren, soziale Rollen sprachlich simulieren und Gesprächsverhalten nachahmen. Doch echtes Einfühlungsvermögen, Intentionalität oder soziale Motivation sind ihnen fremd.
Intrapersonale Intelligenz ist die Fähigkeit zur Selbstwahrnehmung, Reflexion und zum Verständnis eigener Gefühle und Motive. Sie setzt ein bewusstes Selbst voraus - etwas, das LLMs fundamental fehlt. Sie kennen weder Subjektivität noch innere Zustände, auch wenn sie sprachlich darüber reden können.
Naturalistische Intelligenz bezieht sich auf das Erkennen und Kategorisieren von Naturphänomenen: Pflanzen, Tiere, Ökosysteme. LLMs können Fakten über Natur beschreiben oder biologische Kategorien korrekt wiedergeben, haben aber kein Erleben von Umwelt. Ihre „Kenntnis“ bleibt rein textbasiert und ohne sensorischen Bezug.
Existenzielle Intelligenz schließlich meint die Fähigkeit, über Sinn, Tod, Glaube und das eigene Dasein nachzudenken. LLMs können philosophische Diskurse rekonstruieren und religiöse Ideen zusammenfassen. Doch diese Leistung bleibt eine Simulation, denn sie besitzen kein echtes existenzielles Bewusstsein oder Bedürfnis nach Sinn.
Auch wenn LLMs in einzelnen Bereichen Fähigkeiten zeigen, die mit menschlichen Intelligenzformen vergleichbar erscheinen, fehlt ihnen das, was viele als zentral für Intelligenz betrachten:
KI ist nicht intelligent. Es gibt kein "i" in KI. Große Sprachmodelle wie GPT können bestimmte Aspekte von Intelligenz simulieren - vor allem die sprachliche Ebene. Doch menschliche Intelligenz geht weit darüber hinaus: Sie ist leiblich, emotional, sozial und reflektiert. Im Sinne Gardners sind viele der echten Intelligenzformen nicht bloß algorithmisch darstellbar, sondern tief in unsere menschliche Existenz eingebettet. Deshalb kann man bei LLMs nur von Sprachkompetenz oder funktionaler Intelligenz-Simulation sprechen - nicht jedoch von Intelligenz im menschlichen Sinn.
Dass KI nicht wirklich intelligent ist, also kein eigenes Bewusstsein, tiefes Verständnis oder eigene Absichten hat, kann sehr vorteilhaft sein. KI-Systeme handeln nicht aus eigenem Antrieb, nicht aus Lust und Laune oder Gier, sondern befolgen Regeln und Trainingsdaten. Somit sind sie vorhersagbar und damit leichter zu regulieren. Ohne ein Eigeninteresse und Selbsterhaltungstrieb besteht kein Risiko von "Rebellion" wie in Science-Fiction-Filmen. Entwickler und Betreiber behalten die Kontrolle und Verantwortung, was in derem Interesse bzw. im Interesse der Allgemeinheit liegt.
Ebenso ist es vorteilhaft, dass KI keine echten Gedanken und Gefühle hat. Deshalb braucht man keine moralischen Rechte wie bei Tieren oder Menschen zu berücksichtigen. KI kann für Aufgaben eingesetzt werden, bei denen menschliches Leid moralisch bedenklich wäre, z.B. in gefährlichen Umgebungen oder bei belastenden Gesprächen. Es besteht kein Risiko, versehentlich ein leidendes Wesen zu erschaffen.
Ohne einen eigenen Antrieb ist KI weniger anfällig für unvorhersehbares, eigenmotiviertes Verhalten. Gerade weil KI nicht wirklich intelligent ist, bleibt sie ein effizienter und ethisch handhabbarer Helfer - solange Menschen sie verantwortungsvoll einsetzen. Wenn Menschen klar ist, dass KI nicht intelligent ist, bleibt KI ein Werkzeug zur Unterstützung menschlicher Fähigkeiten. Menschen wollen gegenüber einem Werkzeug die Entscheidungshoheit behalten - sofern sich nicht Manager aus Kostengründen gegen Menschen entscheiden.