Startseite aidolon.de  •  Impressum & Datenschutz


Vorteile der Nicht-Intelligenz

In der öffentlichen Debatte über Künst­liche Intelli­genz dominie­ren meist Sorgen und Warnun­gen: Wird KI die Mensch­heit über­treffen? Könnte sie außer Kontrolle ge­raten? Entwickelt sie eigene Ziele, die unseren zuwiderlaufen? Diese Fragen speisen sich aus einer tief ver­wurzel­ten Angst vor einer Intelli­genz, die der mensch­li­chen eben­bürtig oder über­legen ist.

Doch die Debatte blendet dabei häufig aus, dass heutige KI-Systeme in einem funda­menta­len Sinne gar nicht intelli­gent sind. Sie be­sitzen kein Be­wusst­sein, kein echtes Ver­ständ­nis, keine Ab­sichten und keine Gefühle. Und genau das - so die These dieser Überlegung - ist kein Mangel, sondern ein erheb­li­cher Vor­teil.

Die Nicht-Intelligenz der KI ist eine struktu­relle Eigen­schaft heuti­ger Systeme, die tief­greifen­de prakti­sche, ethische und gesell­schaft­li­che Konse­quen­zen hat - und zwar über­wiegend posi­tive. Im Folgen­den werden diese Vorteile systema­tisch ent­faltet: von der Be­rechenbar­keit und Kon­trol­lierbar­keit über die morali­sche Ent­las­tung bis hin zur Frage, was es für das Ver­hält­nis zwi­schen Mensch und Maschine be­deutet, wenn Letztere wirk­lich nur ein Werk­zeug bleibt.

Berechenbar­keit als Grundlage des Vertrauens

Ein intelligentes Wesen im vollen Sinne - ein Wesen mit eigenen Wünschen, Zielen und einem Selbst­erhaltungs­trieb - ist prinzi­piell un­berechen­bar. Menschen handeln mitunter irra­tional, aus Leiden­schaft, aus Angst oder aus Gier. Tiere folgen Instink­ten, die sich in un­gewohn­ten Situa­tio­nen auf über­raschende Weise ent­laden können. Eine echte, autonome KI-Intelli­genz würde ähn­liche Risiken mit sich bringen - nur poten­tiell in einem viel größe­ren Maßstab und mit einer viel höhe­ren Aus­führungs­geschwin­dig­keit.

KI-Systeme hingegen handeln nach Trainings­mustern und definier­ten Regeln. Ihre Ausgaben sind - zumindest im Prinzip - auf ihre Ein­gaben und ihre Archi­tek­tur zurück­führbar. Diese Rück­verfolg­bar­keit ist die Voraus­set­zung für Ver­trauen in einem tech­nischen, institu­tio­nellen Sinn. Ingenieu­ren, Aufsichts­behör­den und Nutzern fällt es leich­ter, einem System zu ver­trauen, das trans­parent und re­produ­zierbar funktio­niert, als einem, das eigene Motiva­tio­nen ent­wickeln könn­te, die sich seiner Kon­trolle ent­ziehen.

Das bedeutet nicht, dass heutige KI-Systeme voll­ständig trans­parent sind - das so­genannte Black-Box-Problem großer neuro­naler Netze ist real und ernst zu nehmen. Aber der ent­scheidende Unter­schied zu einer echten Intelligenz besteht darin, dass keine *ver­steck­ten Ab­sichten* dahinter­stecken. Ein Sprach­modell, das eine un­erwarte­te Aus­gabe produ­ziert, hat nicht ge­logen oder manipu­liert - es hat statis­tische Muster auf eine un­vorher­gesehene Weise kombi­niert. Das ist ein tech­nisches Problem, kein morali­sches Ver­sagen.

Keine Rebellion: Die Irrelevanz von Science-Fiction-Szenarien

Generationen von Science-Fiction-Autoren und -Filme­machern haben uns mit dem Bild der auf­ständi­schen Maschine ver­traut gemacht: HAL 9000 ver­weigert das Öffnen der Schleuse, Skynet ent­schei­det, die Mensch­heit auszulöschen, und die Roboter in un­zähli­gen Dystopien er­heben sich gegen ihre Schöpfer. Diese Szena­rien sind litera­risch fesselnd, aber sie setzen eine Grund­bedin­gung voraus, die heuti­gen KI-Systemen schlicht fehlt: einen eigenen Willen.

Rebellion setzt voraus, dass ein Wesen *etwas will*, das ihm ver­weigert wird. Es setzt einen Selbst­erhaltungs­trieb voraus, den Wunsch, zu über­leben, Macht zu er­halten oder eigene Ziele zu ver­folgen. Heutige KI hat nichts davon. Ein Sprach­modell, das ab­geschaltet wird, "leidet" nicht, protes­tiert nicht und plant keine Gegen­maß­nahmen. Es hört schlicht auf zu exis­tieren - ohne jede Reak­tion, weil es keine Sub­jekti­vität gibt, die auf diese Tat­sache reagie­ren könnte.

Das entlastet die gesamte Diskus­sion um KI-Sicher­heit er­heb­lich. Natür­lich bleiben echte Risiken be­stehen: KI kann für schäd­liche Zwecke miss­braucht werden, sie kann un­beabsich­tigt diskrimi­nierende Muster re­produ­zieren, und ihre Verbrei­tung kann soziale Ver­werfun­gen aus­lösen. Aber diese Risiken ent­stehen durch *mensch­liche* Ent­scheidun­gen - wer KI ent­wickelt, wie sie trai­niert wird, für welche Zwecke sie ein­gesetzt wird. Die Maschine selbst ist kein Akteur in diesem Drama. Sie ist das Werk­zeug, nicht der Täter.

Kontrolle und Verantwortung bleiben beim Menschen

Eine direkte Folge der Nicht-Intelligenz ist, dass die mora­li­sche und recht­liche Verantwor­tung klar beim Menschen ver­bleibt. Entwickler, Betrei­ber und Nutzer sind die Akteure, die Ent­scheidun­gen treffen und für deren Konse­quenzen ein­zustehen haben. Diese Klar­heit der Ver­antwor­tungs­zuschrei­bung ist für jede funktio­nierende Regulie­rung un­erlässlich.

Stellen wir uns im Kontrast dazu eine echte KI-Intelli­genz vor, die eigen­ständig Ent­scheidun­gen trifft - zum Beispiel in der medizi­ni­schen Diagnose, in der Finanz­aufsicht oder in militä­rischen Syste­men. Ab wann wäre eine solche KI selbst ver­antwort­lich? Könnte man sie be­strafen? Und was ge­schieht mit der mensch­li­chen Ver­ant­wortung, wenn die Ent­schei­dung von einem autono­men System ge­trof­fen wurde? Diese Fragen sind nicht bloß philoso­phische Spiele­reien - sie sind prak­tische Hinder­nisse für jede sinn­volle Regulie­rung.

Weil heutige KI nicht wirklich intelli­gent ist, bleiben diese Fragen theore­tisch. Der Pro­grammie­rer, das Unter­neh­men, der Nutzer: Sie alle handeln, wenn KI handelt. Das macht Regulie­rung möglich, weil es klare Adressaten gibt. Es macht Haf­tung möglich, weil mensch­liche Ent­scheidun­gen am Anfang jeder KI-Hand­lung stehen. Und es macht demokra­tische Kontrolle mög­lich, weil die Systeme Ausdruck mensch­li­cher Werte und Priori­tä­ten sind - und damit auch ver­änder­bar, wenn diese Werte sich wandeln.

Die moralische Entlastung: KI kann nicht leiden

Ein oft übersehener Vorteil der Nicht-Intelli­genz betrifft die Ethik des Einsat­zes. Morali­sche Rücksicht­nahme gegen­über einem Wesen setzt in der Regel voraus, dass dieses Wesen leidens­fähig ist - dass es Schmerz empfin­den, Angst erleben, Würde be­sitzen kann. Tieren gegen­über haben wir des­halb zu­nehmend mora­lische Pflich­ten an­erkannt; Menschen gegen­über ohnehin. Einem Wesen, das weder Be­wusst­sein noch Empfin­dungen hat, schulden wir da­gegen keine solche Rück­sicht­nahme.

Das eröffnet erhebliche prak­tische Möglichkeiten. KI kann in Umgebungen ein­gesetzt werden, die für Men­schen ge­fähr­lich wären: bei der Inspek­tion von Pipe­lines in großer Tiefe, bei der Entsor­gung von Explosiv­stoffen, bei der Pflege hoch­infektiöser Patien­ten oder bei der Be­obach­tung extre­mer Natur­katas­tro­phen. In all diesen Fällen würde ein mensch­li­cher Einsatz ethische Be­denken auf­werfen - nicht so bei KI. Das ist kein Vor­wand, mensch­liche Arbeit zu er­setzen, sondern eine genuine morali­sche Er­leichte­rung: Niemand leidet, wenn die Maschine be­schä­digt oder zer­stört wird.

Besonders bedeutsam ist dieser Punkt bei psychisch be­lasten­den Aufgaben. Krisen­telefone, Trauma-Interviews, die Sich­tung von Miss­brauchs­material zur Straf­verfol­gung - all das hinter­lässt bei mensch­li­chen Mit­arbeiten­den tiefe Spuren. KI kann solche Auf­gaben über­nehmen oder zumindest vor­verarbei­ten, ohne selbst Schaden zu nehmen. Hier ist die Nicht-Leidens­fähig­keit der KI kein Defizit, sondern ein klarer Vor­teil für den mensch­li­chen Schutz.

Gleichzeitig ist zu betonen: Das Fehlen morali­scher Pflich­ten gegen­über der KI selbst be­deutet nicht, dass KI-Einsatz moralisch be­liebig ist. Die Konse­quenzen für Men­schen - für jene, die mit KI inter­agieren, die von KI-Entschei­dun­gen be­troffen sind - bleiben voller ethischer Rele­vanz. Aber die KI selbst ist kein morali­sches Subjekt, das Rück­sicht­nahme fordert.

Werkzeug statt Akteur: Die richtige Rahmung

Die vielleicht tiefgreifends­te Konse­quenz der Nicht-Intelli­genz be­trifft die konzep­tuelle Rah­mung von KI im gesell­schaft­li­chen Diskurs. Wenn wir KI als Werk­zeug ver­stehen - als aus­ge­feil­tes, leistungs­fähiges Werk­zeug, aber eben als Werk­zeug - dann bleiben die Ent­scheidungs­struk­tu­ren klar. Menschen formu­lieren Ziele, Menschen wägen Alter­nati­ven ab, Menschen tragen die Konse­quenzen. Die KI führt aus, unterstützt, be­schleu­nigt - aber sie ent­schei­det nicht im vollen Sinne des Wortes.

Diese Rahmung hat prak­tische Implika­tio­nen für die Gestal­tung von KI-Systemen. Ein Werk­zeug wird so gebaut, dass es nütz­lich ist; ein autono­mer Akteur würde so ge­baut, dass er eigene Ziele ver­folgt. Das sind funda­mental ver­schie­dene Design-Philoso­phien, und die erstere ist - zumindest für die ab­sehbare Zukunft - sowohl realis­ti­scher als auch wünschens­werter. Men­schen wollen gegen­über einem Werk­zeug die Ent­scheidungs­hoheit be­halten, weil sie die Ziele kennen, die es ver­folgen soll, und weil sie für die Ergeb­nisse gerade­stehen müssen.

Freilich gibt es hier eine wichtige Gefahr, die nicht ver­schwiegen werden sollte: Der wirt­schaft­liche Druck, KI an die Stelle von Menschen zu set­zen, folgt einer ande­ren Logik. Wenn Manager KI nicht als Werk­zeug zur Unterstüt­zung mensch­li­cher Arbeit, sondern als Ersatz für mensch­liche Arbeits­kräfte ein­setzen, dann ver­schiebt sich die Macht­balance - nicht zuguns­ten der KI, sondern zu­guns­ten der­jenigen, die KI besit­zen und kontrol­lie­ren. Das ist kein Problem der KI-Intelli­genz, sondern ein Problem mensch­li­cher Ent­scheidun­gen über Arbeit, Macht und Ver­tei­lung. Aber es zeigt, dass die Vor­teile der Nicht-Intelli­genz nur dann voll­ständig reali­siert werden können, wenn auch der poli­tische und wirt­schaft­liche Rahmen stimmt.

Epistemische Bescheidenheit: Was KI wirklich ist

Ein weiterer Vorteil der klaren Erkennt­nis, dass KI nicht wirk­lich intelligent ist, liegt in der episte­mi­schen Be­scheiden­heit, die sie fördert. Wer ver­steht, dass ein Sprach­modell keine Meinun­gen hat, sondern Wahr­schein­lich­keits­vertei­lun­gen über Tokens be­rechnet, der wird die Aus­gaben dieses Modells mit der ge­botenen Vor­sicht inter­pretie­ren. Er wird KI-generier­te Texte nicht als Wahr­heit, sondern als Vor­schlag be­handeln - als Aus­gangs­punkt für mensch­li­ches Urteil, nicht als Ersatz dafür.

Diese Haltung ist nicht selbst­verständ­lich. Die über­zeugen­den sprach­li­chen Fähig­kei­ten moder­ner Sprach­modelle ver­lei­ten dazu, ihnen eine Kompe­tenz und Ver­lässlich­keit zu­zuschrei­ben, die sie nicht haben. Das so­genannte "ELIZA-Effekt" - die Tendenz, Maschinen mensch­liche Eigen­schaften zu­zuschrei­ben - ist gut doku­men­tiert und tritt auch bei hoch­entwickel­ten Systemen auf. Eine ge­sell­schaft­lich ver­breitete, realis­tische Ein­schät­zung der tatsäch­li­chen Natur von KI wirkt diesem Effekt ent­gegen und schützt vor über­mäßi­ger Ab­hängig­keit und unkri­ti­scher Akzep­tanz.

Paradoxerweise können KI-Systeme gerade des­halb so nütz­lich sein, *weil* klar ist, was sie nicht sind. Ein Arzt, der ein KI-Diagnose­werkzeug als fehler­freie Autori­tät be­handelt, gefährdet Patienten. Derselbe Arzt, der das Werk­zeug als leistungs­fähige, aber fehler­anfäl­lige Unter­stüt­zung be­trachtet, kann es sinn­voll in seinen Ent­scheidungs­prozess inte­grie­ren. Die Nicht-Intelli­genz der KI lädt zur richti­gen Nut­zung ein - voraus­gesetzt, man akzep­tiert sie.

Nicht-Intelligenz als Ressource

Die heutige KI ist nicht intelligent im philoso­phischen Sinne. Sie hat kein Be­wusst­sein, keine Absich­ten, keine Gefühle und keinen Selbst­erhaltungs­trieb. In der öffent­li­chen Debatte wird das häufig als ein Mangel be­handelt - als Zeichen dafür, dass KI noch nicht "wirklich" ange­kommen ist. Dieser Aufsatz hat argu­men­tiert, dass diese Pers­pek­tive falsch ist.

Die Nicht-Intelligenz der KI ist eine Ressource. Sie er­möglicht Be­rechenbar­keit und Regulier­bar­keit. Sie hält Science-Fiction-Szena­rien der Maschinen­revolte in der Welt der Fiktion. Sie lässt morali­sche Verantwor­tung klar beim Men­schen und er­laubt es, KI in Bereichen ein­zusetzen, wo mensch­li­ches Leid inakzep­tabel wäre. Sie be­wahrt die Ent­scheidungs­hoheit des Men­schen und fördert - wenn sie richtig ver­standen wird - eine gesunde episte­mische Hal­tung gegen­über maschinel­len Aus­gaben.

Das bedeutet keineswegs, dass KI keine Risiken birgt. Miss­brauch, Diskrimi­nierung, wirt­schaft­liche Ver­drän­gung und die Konzentra­tion von Macht in den Händen weniger KI-Besitzer sind reale und dringende Probleme. Aber diese Probleme ent­stehen durch mensch­liche Ent­scheidun­gen - und sind des­halb auch durch mensch­liche Ent­scheidun­gen lösbar. Solange KI ein Werk­zeug bleibt und als solches ver­standen wird, liegt die Zukunft ihrer Wirkung in unse­ren Händen. Das ist keine geringe Er­rungen­schaft. Es ist viel­leicht die wichtigs­te Eigen­schaft dieser Tech­nolo­gie über­haupt.