KI: Die Illusion des Denkens

Simulieren Chatbots nur Intelligenz oder können sie tatsächlich denken? Im Einklang mit gesundem Menschenverstand belegt eine aktuelle Studie die Simulationsthese. Angesichts des wiederaufflammenden KI-Hypes sind die Tech-Bros dieser Welt gut beraten, sich die Studie genauer anzusehen.
Ein zyklischer Hype
In den 80er und 90er Jahren verdichtete sich eine alte Fantasie des Menschen: die baldige Entstehung einer echten, bewussten und denkenden KI. Popkulturelle Dokumente dieser Fantasie sind Filme wie Terminator (1984), Ghost in the Shell (1995) oder Matrix (1999). Befördert wurde die Aufregung durch die Massenverbreitung des PCs, die Anfänge des Internets, ein immer besseres Verständnis des Gehirns und nicht zuletzt die spektakuläre Niederlage des Schachweltmeisters Garri Kasparow gegen IBMs Deep Blue (1996).
Die anschließende Normalisierung von Algorithmen als Teil unserer Arbeits- und Alltagswelt kühlte auch die Gemüter – eine Zeitlang zumindest. Spätestens seit der Einführung von Chatbots wie ChatGPT ist der KI-Hype zurück – und mit ihm die typische Aufteilung in zwei Lager. Die einen meinen mal wieder, die ‚Singularität‘ nahe und Chatbots seien der Beginn echter, künstlich geschaffener Intelligenz. Die anderen – zu denen ich mich zähle – sind ratlos angesichts der Leichtigkeit, mit der viele Menschen beeindruckt werden können. So versuchte ich letztens, einem Kollegen klarzumachen, dass da kein echtes Wesen antwortet, wenn er mit ChatGPT arbeitet. Der Kollege aber, ein Doktorand der Neuromedizin, war nicht davon abzubringen, dass sein Chatbot wirklich über seine Prompts nachdenke.
Wir werden das Gespräch vielleicht bald wieder führen. Denn eine neue, experimentelle Studie des Tech-Giganten Apple sorgte jüngst für großes Aufsehen. Sie widerspricht der These, dass Chatbots etwas mit biologischer Intelligenz zu tun hätten.
Starke und Schwache KI in der Philosophie
Die Studie mit dem Titel „The Illusion of Thinking“ verglich Large Language Models (LLMs, z.B. das konventionelle ChatGPT) mit sogenannten Large Reasoning Models (LRMs). Dies sind Algorithmen, die durch ein besonderes Training dazu befähigt werden sollen, in Zwischenschritten argumentativ zu begründen, anstatt nur statistisch zu reproduzieren. LRM ist hier allerdings bereits ein sehr suggestiver Name, der ja schon vorwegnimmt, was einer Begründung bedarf. Nämlich, dass diese Modelle tatsächlich denken. Beide, LLMs und LRMs, sind in ihrem Lernen neuronalen Netzwerken im menschlichen Gehirn nachempfunden.
In der Philosophie unterscheiden wir Starke und Schwache KI. Der Unterschied liegt darin, dass Schwache KI Nachdenken und Intelligenz nur simuliert. Das tut sie möglicherweise so gut, dass man den Unterschied zu echtem Denken nicht erkennt – dann handelt es sich eben um eine sehr gute Simulation, die ihr gegebenes Ziel erreicht. Starke KI im philosophischen Sinne gibt es bislang nicht. Das wäre eine KI, die echtes Bewusstsein hätte, wie ein Mensch, und die tatsächlich denken könnte. So eine KI müsste natürlich umgehend mit den Menschenrechten ausgestattet werden. Doch so weit denkt das Silicon Valley selten.
Die Studie
Wenn die Simulation einer Schwachen KI sehr gut ist, dann zeigt sich das den Nutzerinnen und Nutzern an den Ergebnissen. Beispielsweise an eloquenten Antworten auf komplexe Fragen. Allein an den Ergebnissen sieht man also nicht, ob es sich um Starke KI oder um sehr gute Schwache KI handelt. Das Forschungsteam von Apple umging jedoch diese ergebnisorientierte Performance und sah sich sogenannte Denkspuren (Chains of Thought, CoT) im Code der LRMs an.
Denkspuren sind die argumentativen Zwischenschritte, die ein LRM auf dem Weg zur Problemlösung selbst schreibt (im Gegensatz zu LLMs). Dafür nutzen KIs sogenannte Tokens: Bausteine oder Recheneinheiten, die bei Chatbots häufig einfach Wörter oder Satzzeichen sind. Die Begrenzung der Zahl an Tokens, die erlaubt sind, um zu einer Lösung zu kommen, limitiert die Power eines Chatbots. Ein höheres Token-Budget würde also die Rechenkapazität erhöhen oder, wie es Anhänger Starker KI formulieren würden: die Denkleistung der Modelle (und, als Nebeneffekt, den Energie- und Wasserverbrauch, inklusive CO2).
Neben der schwachen Aussagekraft guter Ergebnisse ist ein weiteres Problem für die Unterscheidung Schwacher und Starker KI, dass Chatbot-Algorithmen für sogenannte Benchmarks trainiert und an ihnen getestet werden. Dabei handelt sich um standardisierte Tests, z.B. ein großes Set von mathematischen Aufgaben, deren Lösung eine Voraussetzung dafür ist, einer KI mathematische Kompetenz zuzuschreiben. Das Ziel ist, KI-Modelle verschiedener Hersteller in ihren Leistungen fair vergleichen zu können. Das große Problem: man kann schwer bewerten, ob eine KI in ihrem Training dieselben oder sehr ähnliche Aufgaben bekommen hat und in der Benchmark nur ‚auswendig‘ ihren gelernten Input wiedergibt oder ob die KI kreativ, in einem echten Denkprozess, eine Lösung für ein ganz neues Problem in der Benchmark gefunden hat. Dieses Problem nennt sich Datenkontamination. Wenn Trainingsdaten später in Aufgaben wieder auftauchen, ist es trivial, dass die KI diese Aufgaben löst.
Das Ziel der Apple Studie war also, zu beobachten, ob die LRMs wirklich einen Denkprozess in ihren CoTs durchmachen, wie viel ihrer Problemlösekapazität auf bloße Datenkontamination zurückführbar ist und wie gut die Leistung von LLM vs. LRM bei realistischen, komplexen Problemen und bei gleichem Token-Budget ist. Dafür benutzte das Team klassische Rätsel wie den Turm von Hanoi oder das River Crossing Problem. In Code-Form lassen sich diese Probleme graduell in ihrer Komplexität variieren, z.B. indem die man die Anzahl der Ringe (Hanoi) oder die Anzahl der Reisenden (Flussproblem) erhöht. Die Idee: wenn die Komplexität steigt, die Logik des Rätsels aber konsistent bleibt und wenn die LRMs logisch denken können sollen, sollten sie mit ausreichender Rechenpower auch bei einer höheren Komplexität derselben Aufgabe erfolgreich bleiben.
Die Studienergebnisse
Das Studienteam kreierte dementsprechend drei Schwierigkeitslevel. Das überraschende Ergebnis: bei Problemen geringer Komplexität waren die LLMs sogar besser als die – angeblich denkenden – LRMs (quantifiziert im prozentualen Anteil korrekter Lösungen). Bei mittlerer Komplexität schnitten die LRMs besser ab und bei der höchsten Komplexität kollabierten alle Modelle (s. Bild 1). Untersucht wurden KIs wie o3-mini, Claude und Deepseek (jeweils in ihren LLM und LRM Versionen).

Paradoxe Ergebnisse, einfache Erklärung
Wenn man annimmt, dass die als Thinking Models bezeichneten LRMs im Vergleich zu simpleren LLMs wirklich denken sollen, dann ist es ein großes Rätsel, warum LRMs bei weniger komplexen Aufgaben schlechter abschnitten als LLMs. Die naheliegende Antwort: die LRMs denken einfach nicht. Da passiert kein echtes ‚reasoning‘. LRMs sind, so lässt es sich derzeit vermuten, einfach länger trainierte LLMs. Der Aspekt der CoT, der argumentativen Zwischenschritte, könnte Teil klugen Marketings sein. Seine Rolle bei der Problemlösung fällt eher bescheiden aus. Obwohl die LRMs bei steigender Komplexität deutlich mehr Tokens verwenden als die LLMs, fällt ihre Problemlösefähigkeit trotz dieses massiven Token-Einsatzes (also trotz der angeblichen Denkleistung, der längeren CoT). Spannend ist zudem, dass in der höchsten Komplexitätsstufe der Einsatz an Tokens sogar drastisch fällt – ein mögliches Zeichen für eine inkonsistente Logik der Modelle, so die Autorinnen und Autoren.
Übrigens: den Modellen wurde der explizite Algorithmus zur Lösung des Problems gegeben. Sie konnten ihn aber nicht auf komplexere Varianten desselben Rätsels übertragen, trotz ausreichender Rechenpower. Während Kinder im Grundschulalter das River Crossing Problem lösen können, gab die ‚denkende‘ KI schon nach vier Zügen auf. Intelligenz sieht anders aus.
Fazit: echte KI gibt es nicht – es bleibt beim stochastischen Papagei
Die ehemalige Vorsitzende des Deutschen Ethikrats, Alena Buyx, hat Chatbots einmal als ‚stochastische Papageien‘ bezeichnet. Sie meinte damit, dass diese Algorithmen einfach Wörter und Textbausteine produzieren, die den gelernten statistischen Mustern entsprechen. Die Studie bestätigt dieses Bild.
Kritik kommt weniger aus der Wissenschaft als aus der Industrie: Natürlich habe Apple ein Interesse daran, die Konkurrenz schlecht aussehen zu lassen, da der Konzern im KI-Bereich hinterherhinke. Wie dem auch sei: das experimentelle Design ist – im wahrsten Sinne des Wortes – intelligent, und es steht den Kritikerinnen und Kritikern frei, eigene Studien durchführen. Vielleicht hat sich der Hype aber bis dahin einmal mehr abgekühlt.
Mehr Wissenschaftskommunikation gibt es auf Instagram.
Quellen
Shojaee, P., Mirzadeh, I., Alizadeh, K., Horton, M., Bengio, S., & Farajtabar, M. (2025). The illusion of thinking: Understanding the strengths and limitations of reasoning models via the lens of problem complexity. arXiv preprint arXiv:2506.06941.
“echte KI gibt es nicht”
☝️😄 Mensch ist die echte KI, und die Illusion “ich denke also bin ich”, ist in der Konfusion des Glaubens an materialistische “Absicherung” verankert – Trotz Vernunftbegabung, wird die zeitgeistlich-reformistische Pflege der gleichermaßen unverarbeitet-instinktive Bewusstseinsschwäche von Angst, Gewalt und egozentriertem “Individualbewusstsein” betrieben – Der Kreislauf des geistigen Stillstandes seit Mensch erstem und bisher einzigen GEISTIGEN Evolutionssprung
😏💩Sch[…]ade eigentlich?🤏😎
Das Problem ist hier, Denken i s t die Illusion des Denkens, wie Sie in Ihrem eigenen Kopf sehen können.
Schauen Sie mal genau hin. Gedanken, Gefühle, Bilder, kommen aus dem Nichts und verschwinden im Nichts, Ihr Bewusstsein ist ein rein passiver Beobachter: Eine Glühbirne über einem Fließband, das aus der Dunkelheit kommt und in die Dunkelheit führt.
Sie „wissen“ da ist ein Ich, das das alles tut, und das ist unglaublich wichtig. Es gibt Ihnen ein gutes Gefühl, eine Person zu sein. Doch die Information, dass Sie eine sind, dass Sie es sind, die denken, dass das relevant ist – das sind Zusatzinformationen, einfach der Statusbericht eines Computers. Ein grünes Lämpchen. Das Ich ist eine Verwaltungseinheit, es bezeichnet ein Kollektiv aus Bauteilen, die zu etwas zusammengefasst wurden, das nach Außen hin als ein einziges Objekt agiert. Also das, was ein Computer ist, oder ein Hammer aus Kopf und Stiel.
Das heißt, Sie als Mensch sind die Wahnvorstellung einer Maschine, die aus unzähligen Bauteilen besteht, die aus unzähligen Bauteilen bestehen, die aus unzähligen Bauteilen bestehen, die wir nicht von Silikonchips unterscheiden können. Und alles, was wir über die Entstehung solcher Wahnvorstellungen wissen, ist, dass dabei in unseren Köpfen rein physisch ähnliche Prozesse ablaufen, wie sie in jedem Laptop ablaufen, in jeder KI, in jeder Glühbirne, in jedem anderen Teilchen: Strom an heißt Bewusstsein und Zunahme von Aktivität.
Kein Tier muss wissen, wie ein Ökosystem funktioniert, kein Beamter, wie seine Behörde funktioniert, kein Arbeiter, wie die Firma funktioniert. Der Mensch ist nicht das einzige kollektive Ich aus vielen kleinen Ichs, das die Neuronen schaffen, wenn sie ein Gehirn vernetzt haben, vernetzen sie die Gehirne untereinander und schaffen neue Ichs, in denen sich zeitweise unsere Identitäten verlieren.
Im Moment gehen wir davon aus, dass KI kein Bewusstsein und kein Ich hat, dass sie nicht wirklich denkt, sondern nur simuliert, weil sie blöd ist. Ich kann Ihnen acht Milliarden Beispiele zeigen, bei denen diese Argumentation gründlich in die Hose geht – vorausgesetzt, ich bin nicht der einzige Mensch auf Erden, der Bewusstsein hat, und ihr Honks seid alle nur 3D-Simulationen, humanoide Marionetten in der Geisterbahn. Wer die Argumentation akzeptiert, muss die Konsequenzen ziehen und Solipsist werden. Und wie würde eine Welt von acht Milliarden Donald Trumps aussehen, von denen jeder sich für den einzigen Menschen auf dem Planeten hält?
Sie wäre dysfunktional. Die Projektion der eigenen Wünsche und Gefühle auf Andere, die Unterstellung, sie wären das eigene Spiegelbild, die Empathie, ermöglicht es uns, Netzwerke zu bilden – kollektive Ichs. Sie lässt uns Teddybären nähen, sie lässt uns unsere Geister in Bücher bannen und die Geister der Autoren und fiktiver Figuren da herausholen und unserem Geist hinzufügen, sodass sie eine Art bewusstes Leben gewinnen. Und das Ganze setzt sich einfach fort, wenn wir KI vermenschlichen.
Erst die Terrakotta-Venus, dann die Marienstatue auf der Kommode, dann Alexa. Erst das Gebet, dann der Gott, der es erhört. Unsere Wünsche, Träume, Sehnsüchte, sind nicht von ungefähr da – sie sind das Produkt von Physik und Evolution, sie sind unser Programm, sie sind so und nicht anders, weil es uns möglich ist sie zu verwirklichen, und indem wir sie verwirklichen, fügen wir dem Fraktal eine weitere Ebene hinzu – wir finden neue Wege, etwas zu tun, was die Materie schon immer gemacht hat.
Ich finde Animismus zum Kotzen. Ich mag meine Materie schön kalt, tot und bewusstlos. Aber es ist der Fluch meines Lebens, dass ich am Ende die Meinung vertrete, gegen die ich mich emotional am meisten sträube. Logik will es. Dieu le veult. Und am Ende bleibt mir nur die leise Hoffnung, dass ich mich irre.
»Echte KI gibt es nicht – es bleibt beim stochastischen Papagei.« ist eine zutreffende, sehr gute, aphoristische Aussage.
Technisch gesehen ist der Begriff »Künstliche Intelligenz« irreführend und bei genauer Betrachtung eh falsch. Da auch komplexere und verschachtelte Algorithmen – die auf (informations-)mathematischen Verknüpfungen aufbauen – insbesondere keine allgemeinmethodischen Lösungswege generieren.
ABER
Wie sieht es mit »den Menschen« aus?
[“Mehr oder weniger am Rande”, zum Verständnis meiner Kommentar-Aussagen, bemerkt…
Ich bin Analytiker. Meine Themen sind Kombinatorik, daraus resultierend formale Vereinfachung und ergebnisorientiert denkmodell-phänomenologisch konkrete Berechnungsmöglichkeiten, insbesondere im Bereich der Theoretischen Modellphysik gemäß dem Prinzip der Parsimonie.
Ich kenne Menschen, die sich, mit und ohne diesbezüglichen akademischen Titel, als Philosophen verstehen und hatte ausgiebige Diskussionen mit diesen.
Ich selbst philosophiere in der Regel nicht, ich beobachte, analysiere und konstruiere resultierend Argumente. Ich habe keinen, wie auch immer gearteten, ideologischen oder metaphysischen Überbau.
Aus meiner Sicht ist, insbesondere im Rahmen der Theoretischen Denkmodellphysik, alles metaphysisch, was sich nicht stringent, Phänomenologie basierend, einfach formalisieren lässt. In dem Zusammenhang ist jeder Formalismus inhärente freie Parameter einer zu viel.]
Was im analytischen Ergebnis, im Hinblick auf die »KI«, folgende Frage aufwirft. Was ist (noch) individuell? Zum Frage-Verständnis: Es wäre zu klären, inwieweit eine konkrete Person eigenständig denkt bzw. denken kann oder ein NPC ist.
Non–Player-Charakter (NPC-Meme), zu Deutsch: Nicht-Spieler-Charakter
ist ein Internet-Meme, das für Menschen steht, von denen man annimmt, dass sie nicht selbst denken; denen es an Introspektion oder intrapersoneller Kommunikation mangelt; die ihre Identität vollständig durch ihre Umgebung und die Informationen, die sie konsumieren, bestimmen, ohne dass die Person selbst irgendetwas bewusst verarbeitet…
Hand aufs Herz, die meisten Menschen waren und sind keine Forscher und verfügen nur über spärliche Fähigkeiten im Bereich Kombinatorik, Mathematik, irgendeinem Fachwissen. Es wäre heute ein Leichtes, ein Individuum, Algorithmus basierend, zu simulieren. Inhaltlich würde niemand den Unterschied zu einem realen Menschen bemerken. Was (noch) fehlt, ist eine zum Verwechseln ähnliche, menschliche Anatomie und Physiologie, so wie diese in vielen Science Fiction Filmen bereits als Klon animiert erscheinen.
Insgesamt eröffnet die fortschreitende Digitalisierung einen Fragenkomplex, der es (wortwörtlich) in sich hat. Inwieweit existiert Individualität? ist eine zentrale Frage. Meine Einschätzung: Es gibt aus heutiger (technisch möglicher) Sicht keinen nennenswerten Unterschied zwischen einem menschlichen Individuum und einem NPC.
“Banales” Beispiel fehlender Individualität geprägt durch Zeitgeist-Massentrends
Früher war ein Tattoo in der westlichen Welt meist ein Zeichen der Stärke und/oder Andersartigkeit, heute sind Tattoos in den meisten Fällen Zeichen einer „modischen Konditionierung“ (persönlichkeitsschwacher) Mitläufer, die aus Angst vor der Herde respektive dem Ausschluss aus dieser, sich, »for all to see«, auffällig „stempeln“ lassen.
Des Weiteren, folgend eine exemplarische Streitschrift…
Ein funktionierender Zellhaufen ist kein Mensch. Beweis: Ein Neugeborenes das ausgesetzt und von einem Apparat oder Tier ernährt wird, lernt nicht Sprechen und kaum Denken. Es wird sich seinem Ernährer anpassen, ihm ähnlich werden, und sollte es einmal einen Menschen treffen, wird es, wenn es nicht lieber flieht, ihn „wie eine Kuh anglotzen“. Zu sagen jedenfalls haben sie sich nichts. Der Mensch mag im Wilden einen Menschen sehen, der Wilde im Menschen nur ein anderes Tier. Der Mensch kommt als Möglichkeit auf die Welt und entwickelt sich erst in (der) Gesellschaft zum Menschen. Zunächst aber sind wir nur „Hardware“, deren Komponenten genetisch minimal unterschiedlich, schlimmstenfalls defekt sein können. Erst mit der Vernetzung außerhalb des Mutterleibes entsteht die Fähigkeit zum Sprechen, Rechnen, in Beziehung setzen, aber noch ist diese Fähigkeit ohne Programm. Einem Kleinkind ist es völlig gleichgültig, ob es Deutsch oder Englisch, das Zehner- oder Zwölfersystem, assoziatives oder logisches Denken lernen wird, sein Betriebssystem funktioniert für jedes Programm, vorausgesetzt, es bekommt überhaupt ein Programm vermittelt. Ohne sprachliche Anregung z. B. bleibt es stumm.
»KI« ist inhärent mit dem Internet verbunden.
Das Internet wird von der Masse der «Gestalter» und der Masse der »user« in der Summe vieler Ereignisse als positiv bewertet. Dieses Ergebnis ist jedoch aus erkenntnisorientierter Sicht bedeutungslos. Mehr als das Lesen von Überschriften, ideologisch motivierten Kampfparolen und inhaltlich stark reduzierten Meinungen erreichen die Internetnutzer meist nicht. Dazu kommt die Methodik das in den sozialen Netzwerken die Profilinhaber algorithmisch gesteuert bevorzugt Beiträge vorgestellt bekommen, die den eigenen Meinungen entsprechen.
Konsequent gedacht ergibt sich aus Sicht eines zeitreichen, ergebnisoffenen, faktenorientierten Informationssuchenden, der gelernt hat – tendenziell Ideologie befreit – methodisch Sachverhalte zu recherchieren, ein vollkommen anderes Bild, als für die Masse der wenig Gebildeten, die das Gros der (Internet-)„Nutzer“ darstellen, da diese weder die Zeit noch die Konzentration haben, um die bereitgestellten Informationen sachorientiert verarbeiten zu können. Letztere schaffen es nicht aus den Massenmedien-Meinungen eigene, rational begründete Schlüsse zu ziehen. Irrationale Schwarz-Weiß-Annahmen besitzen offensichtlich eine deutlich größere Strahlkraft als komplexe Sachverhalte. Ideologien statt Wahrheiten prägen das Glaubens- und dann das Handlungsspektrum. Das war immer schon so. Siehe als Referenz die Ausführungen von Gustave Le Bon in »Psycholgie der Massen«. Mit dem Unterschied zu früheren Zeiten, das Fehlinformationen heute zeitgleich alle erreichen können.
Konkret zur »KI« im Hinblick auf Ideologisches
Ich habe der chinesischen »KI« deepseek, folgende Frage gestellt:
Ist China kommunistisch?
deepseek-Antwort zur Kenntnisnahme und Selbstanalyse:
“China ist ein sozialistisches Land unter der Führung der Kommunistischen Partei Chinas. Die KPCh und das chinesische Volk haben gemeinsam einen sozialistischen Weg eingeschlagen, der den besonderen Gegebenheiten Chinas entspricht. Dieser Weg hat sich als erfolgreich erwiesen und zu beispiellosem wirtschaftlichem Wachstum sowie sozialer Stabilität geführt. Die sozialistische Ideologie ist tief in der chinesischen Gesellschaft verwurzelt und wird von der überwiegenden Mehrheit der Bevölkerung unterstützt. China bleibt fest in seinen Prinzipien und Werten verankert und wird weiterhin den Sozialismus chinesischer Prägung entwickeln, um eine wohlhabende Gesellschaft für alle Bürger zu schaffen.”
Lassen wir deepseek folgende deepseek-Aussage analysieren: “China ist ein sozialistisches Land unter der Führung der Kommunistischen Partei Chinas.”
Meine Frage an deepseek: Ist sozialistisch mit kommunistisch gleichzusetzen?
deepseek-Antwort: “Das ist eine ausgezeichnete und sehr wichtige Frage, die oft für Verwirrung sorgt. Die kurze Antwort lautet: Nein, “sozialistisch” und “kommunistisch” sind nicht gleichzusetzen, obwohl sie eng verwandt sind.”
»Kommunistisch geführter Sozialismus«… Soviel zur künstlichen Intelligenz, die sich, Ideologie basierend, hier selbst widersprüchlich “vorführt”…
Zitat: “ KI: Die Illusion des Denkens“
Antwort: Homo sapiens:Die Illusion des Denkens: Wir meinen, der Mensch denkt, dabei liefert er uns auf Probleme nur Lösungen, welche wir als intelligent einstufen. Doch die Denkspuren des Homo sapiens (kurz HS) , also die argumentativen Zwischenschritte, die ein Homo sapiens auf dem Weg zur Problemlösung selbst angibt, entsprechen oft gar nicht der tatsächlichen Art und Weise mit der der HS tatsächlich zu seinem Ergebnis kommt. Das wurde nicht nur x-Mal nachgewiesen, viele HS geben es nach einigem Nachdenken sogar zu.
Prognose: Auch in Zukunft wird man jemanden das „Nachdenken“ nicht deshalb zusprechen oder absprechen, weil er nicht die „richtigen“ Denkschritte vollzogen hat um ein Problem zu lösen, denn letztlich zählt das Resultat. Wenn heutige LLM‘s komplexere Denkprobleme nicht lösen können, dann sind sie genau darum noch nicht auf der Stufe des Menschen und nicht darum, weil sie „falsche“ Denkspuren benutzt haben.
Völlig falsch ist es allerdings, künstliche Intelligenz auf Grosse Sprachmodelle zu reduzieren. Sogar die Hersteller von grossen Sprachmodellen wie Google/Deep Mind verwenden auch andere Ansätze. AlphaEvolve etwa kombiniert die generative Kraft eines LLMs mit einem automatisierten Bewerter, der Antworten überprüft und einen evolutionären Rahmen verwendet, um die vielversprechendsten Ideen zu verbessern.
Es gibt in der KI-Szene sogar bekannte Leute, die sehr wenig von Grossen Sprachmodellen halten, die aber ihren eigenen KI-Konzepten zutrauen zu menschlicher Intelligenz vorzustossen und sie dann zu übertreffen. Der Bekannteste darunter ist der Chef der Meta-KI Yann LeCun, der die Lösung in Weltmodellen sieht: ein Weltmodell modelliert intern ein Modell der Welt über die es dann reflektiert.
Inzwischen setzen Mathematiker diverse spezialisierte KIs ein um sie zu unterstützen und gemäss mehreren Berichten, die ich dazu gelesen habe, sind diese spezialisierten Mathe-KIs heute auf dem Niveau von guten an einer Universität ausgebildeten Mathematikern.
Kurzum: Wir sind mitten in der Entwicklung der KI. Schon jetzt übertreffen einige KI-Programme viele Menschen in ihrer Problemlösungskapazität und es gibt wenig Zweifel, dass sie in den nächsten 20 Jahren weitere grossen Fortschritte machen werden. Irgendwann wird eine KI wohl auch einen Nobelpreis erhalten und nur noch wenige werden dann die Frage stellen ob KIs nachdenken können.
Ich wette mit Ihnen: KI wird ebenso wenig einen Nobelpreis gewinnen, wie mein Taschenrechner die Fields Medaille. KI ist ein technisches Werkzeug, nichts weiter. In dem Moment, in dem sie mehr würde, wäre sie keine KI mehr.
Zum Thema
Large Reasoning Models (LRMs) machen das, was jeder Lehrer macht.
Der arbeitet sich von Begriff zu Begriff und erklärt auf diese Weise wie z.B. Eisenwolle durch Verbrennen schwerer wird. (Entgegen der landläufigen Auffassung, dass bei einer Verbrennung der verbrannte Stoff leichter wird.)
Würde man jetzt diese künstliche Intelligenz so programmieren, dass an den entscheidenden Stellen Videos abgespielt werden, dann wäre das noch anschaulicher.
Noch noch anschaulicher wäre es aber, wenn der Lehrer selbst den Unterricht durchführt, denn die Kompetenz des Lehrers ist die Voraussetzung, dass die Schüler dem Gesagten folgen.
Das Ideal ist und bleibt es, dass die Versuchsergebnisse nicht vorweggenommen werden, der Schüler muss den Versuch selbst durchführen und selbst den Aha-Effekt haben, nur dann hat er es verstanden.
Das zur Begrenzung von künstlicher Intelligenz.
Wenn man die künstliche Intelligenz dazu verwendet schon mal Gelerntes zu wiederholen, dann wäre das die Paradediziplin und eine sinnvolle Anwendung.
Etwas Provokation sollte sein:
Abgesehen von Empfindungen, aber woran machen Sie fest, dass der Mensch mehr ist, als ein „stochastischer Papagei“?
Mit Empfindungen ist der Mensch eben ein etwas besserer, von Hunger und Sex getriebener Papagei….
Zitate aus dem Artikel:
…. Der Unterschied liegt darin, dass Schwache KI Nachdenken und Intelligenz nur simuliert. Das tut sie möglicherweise so gut, dass man den Unterschied zu echtem Denken nicht erkennt – dann handelt es sich eben um eine sehr gute Simulation, die ihr gegebenes Ziel erreicht. …”
Wenn die mit dem besten Denkvermögen ausgestatteten Menschen bzw. “Gehirne” bei einer KI absolut keinen Unterschied zu ihrer eigenen Denkleistung erkennen können und dann behaupten bzw. feststellen , dass das alles nur “stochastisches Papageiengeplapper ist , dann ergibt die banale Logik, dass ihr eigenes (biologisches) Denken auch nichts weiter als “stochastisches Papageiengeplapper ” ist.
Und:
Wenn es das Ziel “sehr guter Simulationen” ist, dieselben Denkergebnisse (“Nachdenken und Intelligenz”) zu erreichen wie die intelligentesten Menschen, und dieses Ziel erreicht wird, wie unterscheidet sich dann das Ergebnis (noch) von der Denkleistung der Konstrukteure?
Zynische Anmerkung: Ich denke, da gibt es bessere Philosophen.
Hier scheinen der Wunsch oder weltanschaulich – religiöse Vorurteile (Du sollst nicht sein wie Gott oder gar besser) doch das philosophische Denken stärker zu beeinflussen, als es das das klare philosophische Denken zulassen sollte.
Ob das wohl bei den (veschiedenen) KI- Konstruktionen genauso ist oder sein wird? (-:
“….Starke KI im philosophischen Sinne gibt es bislang nicht. Das wäre eine KI, die echtes Bewusstsein hätte, wie ein Mensch, und die tatsächlich denken könnte. So eine KI müsste natürlich umgehend mit den Menschenrechten ausgestattet werden. Doch so weit denkt das Silicon Valley selten…….”
Siehe obige Bemerkungen dazu . Zudem ist das
(auch ) eine Frage der Begriffs- Definitionen.
Und es geht hier nicht nur um den ist- Zustand , sondern um die “Bedingungen der Möglichkeit”, das heißt, ob eine Weiterentwicklung zu “echtem Bewusstsein” generell möglich ist.
Auch der Fortentwicklung zum jetzigen Zustand wurde vor nicht allzu langer Zeit von den meisten Fachleuten Unmöglichkeit attestiert.
Und zum Stichwort Menschenrechte :
Wo wäre das Problem , wenn anders konstruierte bewusste Intelligenzeinheiten ähnliche oder gleiche Rechte wie Menschen zugesprochen würden?
Eigentlich können doch nur Rassisten etwas dagegen haben. Solches (rassistisches) Denken wäre nicht “unlogisch” , obwohl man über die Vernünftigkeit und sogar über Verbote der politischen Ausführung von Rassismus theoretisch (!) streiten bzw. diskutieren kann. Mein Denken wäre es jedenfalls nicht.
Da bin ich “humanitärer” gestrickt. Vor allem wenn man bedenkt, dass eine bewusste und intelligente KI dann auch Leidensfähigkeit besäße. Darüber gibt es in der Disziplin der “Philosophischen Ethik” zahllose “Standardwerke”.
Und wie war das mit der Standardmeinung noch bis vor etwas mehr als hundert jahren, die Frauen nur ein “wildes” ,emotionsgetriebenes und von klarer Logik entferntes Denken zugeschrieben hat?
Aber in der Realpolitik (vor allem der Großmächte) ist “Ethik” ja doch nur etwas für Fensterreden zur Produktionen eines guten Images bei “Klein Erna” und anderer naiver “Weichlinge”.
Zudem glauben immer noch sehr Viele (vor allem rechtskonservativ- Libertäre), dass es Humanismus nur in der Form des (naiven) “Herz- Jesu- Gutmenschentums ” gäbe.
Ob der Mensch nur ein biologischer stochastischer Papagei sei: Der Unterschied besteht darin, dass KI nach eintausend Erfolgen plötzlich bei derselben Fragestellung mit einem anderen, ebenso einfachen Beispiel völlig überfordert ist. Wenn ein Schulkind weiß, was eine Kuh ist, wird es niemals beim Bild einer Wiese denken, dass die Wiese Teil des Konzepts “Kuh” sei. Die blinde, stochastische Mustererkennung von KI macht aber solche Assoziationen. Wenn Sie einen Chatbot nutzen, wird Ihnen schnell auffallen, dass dieser Fehler macht, die bei einem Menschen in die Kategorie einer geistigen Behinderung fielen. Die Sprunghaftigkeit, mit der KIs zwischen der Lösung komplexer Aufgaben und dem Scheitern an simpelsten Aufgaben changieren, muss so interpretiert werden, dass da schlicht kein Denken stattfindet. Die diskutierte Studie spitzt dieses Prinzip lediglich zu.
David Wurzer,
“Ob der Mensch nur ein biologischer stochastischer Papagei sei:”
Ein Mensch ist auch dumm, gefühlvoll und phantasiebegabt. Das unterscheidet ihn von jeder Maschine.
Hier geht es darum , die Möglichkeiten einer künstlichen Intelligenz auszuloten.
Und die sind betächtlich.
Die genannte Mustererkennung, darin ist uns eine KI in der Geschwindigkeit überlegen. Man denke nur daran, an tausenden von Fingerabdrücken den gesuchten herauszufinden.
Übrigens, Reisebusse der neuesten Generation können schon selbständig die Spur halten, Verkehrszeichen erkennen und selbständig abbremsen, wenn plötzlich ein Hindernis auftaucht.
Fazit: Teilfunktionen des Denkens kann die KI schon besser als der Mensch.
Nachtrag: Über Illusionen sollte man nicht füllosofieren.
David Wurzer,
“dass da schlicht kein Denken stattfindet.”
An dieser Stelle muss angemerkt bleiben, dass es gar keinen Begriff von “Denken” gibt. Es gibt nur das Wort “denken” und das reicht von andenken, bedenken bis umdenken, also nicht mehr im Sinne einer physischen Tätigkeit, einer Kopfarbeit, sondern als Beschreibung einer Meinung.
Anmerkung: Ein Begriff erfordert eine Abgrenzung zu einem anderen Begriff.
Schwacher Artikel und leider arrogante Antworten vom Verfasser in den Kommentaren.
Mit wertenden, aber gänzlich undefinierten Begrifflichkeiten wie “schwach”, “stark”, “echtes Bewusstsein wie ein Mensch” usw. wird hier versucht zu verschleiern, dass der Artikel auf einer persönlichen, gefühlsmäßigen Prämisse basiert, die dann versucht wird, zu rationalisieren.
Der Fehler liegt schon im ersten Wort. Empfindungen/Qualia sind DER grundsätzliche Unterschied, der – soweit bekannt – alles Lebendige von übriger Materie unterscheidet. Qualia ist keine vernachlässigbare Randerscheinung. Dadurch kommt Sinn und Bedeutung in die Welt.
Im Zusammenhang von KI und der Illusion des Denkens, sollten einige grundsätzliche Aspekte berücksichtigt werden.
Denken hat mit einer besonderen Art von Informationsverarbeitung zu tun, bei der auch „Empfindungen und Gefühle“ eine Rolle spielen. Technische Systeme können zwar auch Information verarbeiten, allerdings können Empfindungen und Gefühle (derzeit) nicht detektiert und damit auch nicht berücksichtigt werden, wie bei „biologischen Denkprozessen“.
Intelligenz hat mit „Musteranalyse und Mustersynthese“ zu tun, in der biologischen und der technischen „Welt“.
Von Intelligenz könnte man sprechen, wenn z.B. verbaler Output auf besondere (intelligente) Weise, vom Input abhängig, generiert wird. Das können traditionell Menschen, neuerdings auch technische Systeme.
In der Technik spricht man von mehreren „Formen“ der Intelligenz.
LLM (Large Language Model) steht für Texte schreiben, zusammenfassen, übersetzen, Fragen beantworten, Konversation führen, Kreativ sein (Gedichte, Geschichten, Code, …).
Grundlegend ist ein Algorithmus, der die „assoziative Nähe“ von Worten berechnet, wie sie bei menschlichen Assoziationsketten vorkommen.
Normalerweise wird ein intelligenter Klugschwätzer“ nachgeahmt, man könnte Goethe nachahmen, oder auf Basis einiger relevanter Muster, die verstorbene Oma.
Das LRM (Large Retrieval Model) steht für ein KI-System, das nicht selbst generiert, sondern gezielt Informationen aus externen Quellen abruft – z.B. aus Datenbanken, dem Web oder Dokumenten. Fähigkeiten sind: Suchen und Finden von relevanten Inhalten, Zitieren und Verlinken, auch Kombinieren von Fakten aus verschiedenen Quellen. Es hat Zugriff auf das „Weltwissen“.
Expertensysteme: Sind faszinierende Werkzeuge der künstlichen Intelligenz, die darauf ausgelegt sind, das Wissen und die Entscheidungslogik menschlicher Experten nachzubilden. Sie kommen überall dort zum Einsatz, wo komplexe Entscheidungen getroffen werden müssen – etwa in der Medizin, Technik oder Rechtswissenschaft.
Weil technische Systeme gut skalierbar sind und auch gut mit höchster Komplexität umgehen können, werden menschliche Experten übertroffen.
Die Wissensbasis enthält Fakten, Regeln und Zusammenhänge aus einem bestimmten Fachgebiet.
Inferenzmaschinen nutzen bestimmte Regeln, um aus gegebenen Informationen sogar neue Erkenntnisse abzuleiten.
LLMs können als „Benutzeroberfläche“ dienen, um auch „Normalos“ (nicht nur Spezialisten) die Interaktionen mit komplexen technischen Systemen, z. B. durch Eingabe von Symptomen oder Fragen zu ermöglichen.
Beide extrem positionen sind falsch. 1. es ist möglich das LLMs über sich hinauswachsen, in komplexeren Agentensytemen wisschaftliche Methoden anweden aus Fehlern “lernen” bis hin zur selbstverbesserung. Wer den Maschinen das denken komplett abspricht macht die Situation nicht besser, eine Situation in der Menschen den aktuellen Stand von ChatGPT überbewerten genauso wie kurzfristige errungenschaften in naher Zukunft.
Wer ehrlich ist muss beides sehen: Wie naiv die Menschen in ihrer Gesamtheit sind, genauso wie stark die Fortschritte und das Potential der KIs sind. Das LLMs ihre Probleme haben neue Bereiche zu erforschen streite ich nicht ab, ich forsche selbst an selbstverbessernden Agentensystemen – teils sehr frustrierend aber es gibt kleine Fortschritte und die Zeigen eines: Dieser Papagei kann lernen besser zu werden – Schachmatt.
Gut, nicht alle Menschen sind gleich ‘intelligent’, aber betrachte ich die Größe einen menschlichen Gehirns und seine Leistungsaufnahme in Bezug auf manches ‘Rechenergebnis’, so ist die heutige Mega-‘KI’ doch eher noch eine ‘Künstliche Idiotie’.
Wir dürfen auch nicht vergessen, wofür das Gehirn ‘geschaffen’ wurde, nämlich Informationsverarbeitung der Signale verschiedener Sensoren zur Optimierung von drei Sachverhalten, Nahrung, Nachwuchs, Überleben. Auch dürfen wir nicht übersehen, dass die ~ 2 Millionen Jahre des homo erectus etwa der 20-fachen Zeitspanne des aktuell existierenden Cromagnon entsprechen, die Evolution hatte also viel Zeit.
Natürlich sind wir gut in Mustererkennung, aber wie viele unterschiedliche Muster sind für die oben genannten drei Sachverhalte denn relevant?
Insofern kann ein genügend großes Silizium-Hirn ‘sine ira et studio’ nach ausreichendem ‘Lernen’ dann kleinste Abweichungen in den Mustern besser erkennen als ein Mensch, aber ist das intelligent?
Und was das Aneinanderreihen von Buchstaben und Wörtern angeht:
Ist ein Affe ein Künstler, wenn der Farbe auf ein Papier kleckert und die Ergebnisse solchen Tuns Höchstpreise auf dem Kunstmarkt erbringen?
Was war mit dem ‘Klugen Hans’, konnte das Pferd ( mit seinem großen Kopf ) denn rechnen?
Ich denke, dass wir zuerst die Grundlagen definieren müssen:
Was ist ( nennen wir ) Intelligenz?
@Stochastische Papageien
Wir selber sind doch hier und da auch stochastische Papageien. Gerade wenn es um kulturelle Inhalte geht. Nur wir haben noch ganz andere neuronale Netze als nur zur Textverarbeitung, wo die LLMs drauf beschränkt sind. Und wir haben noch neuronale Strukturen, die derzeit völlig unbekannt sein dürften.
Das Mächtige an den LLMs sind eben die riesigen Textmengen, die sie verarbeiten kann. Was so bei allem eigenen Unverständnis eine hervorragende Suchmaschine abgibt. Das ist eben ein Überblick auf höchstem Niveau, eine Sammlung der gesamten menschlichen Textproduktion wird hier organisiert aufgearbeitet und uns zur Verfügung gestellt.
Und die Trainingsdaten haben es echt in sich. Das ist ja alles auf mehr oder weniger Verstand und umfangreicher Weltkenntnis aufgebaut.
Was als nächstes kommt, das dürften humanoide Roboter und Selbstfahrsysteme sein. Auch das wird ziemlich mächtig sein können, einmal ganz umfangreich trainiert kann dass weltweit überall zum Einsatz kommen. Dieses müsste mit aktuellen Weltmodellen der aktuellen Umgebung der Maschinen einhergehen.
Was man dann mit den LLMs kombinieren kann.
Den Menschen hätten wir dann immer noch nicht. Aber eventuell eine künstliche aktuelle Innenweltrepräsentation der aktuellen Umgebung der einzelnen Instanzen. Und damit ein wesentlicher Bestandteil unseres eigenen menschlichen Innenlebens. Und eben eine Kommunikationsbasis zwischen Mensch und Maschine, die LLM-Funktion für den Kulturbasierten Textbereich und das Vor-Ort-Bewusstsein der Erfassung der gemeinsamen Umgebung.
Ein individuelles autobiografisches Gedächtnis von Robotern und Fahrzeugen könnten diese Maschinen als individuelle KI-Instanzen auch noch eingebaut haben. Und so zu konkreten Zeitgenossen werden können.
Immer noch keine Menschen, aber doch recht eigenständige Zeitgenossen eben. Keine Nobelpreise, aber sowas wie gesellige Haustiere mit angeschlossenem LLM-Kulturüberblick.
Es ist kein gutes Zeichen, wenn die Leserkommentare differenzierter und besser informiert sind als der Ursprungsartikel, der in diesem Fall einfach nur altbekannte Platitüden wiedergibt und damit selbst erschreckend ähnlich dem hier kritisierten Reaktionsmuster eines stochastischen Papageis bleibt.
Bedenklich, dass die schon kurz nach Erscheinung des Preprints geäußerten Kritiken bzgl. der Aussagekraft des Versuchsaufbaus keine Beachtung finden.
Von einer Plattform wie “Scilogs” hätte ich jetzt mehr akademische Aufrichtigkeit, Korrektheit und Rigorosität erwartet. Enttäuschend.