Kann ChatGPT sich in die Gedanken anderer einfühlen?

BLOG: Heidelberg Laureate Forum

Laureates of mathematics and computer science meet the next generation
Heidelberg Laureate Forum

In den alten Zeiten, als von den elektrostatischen Kopierern noch nicht die Rede war und von Laserdruckern schon gar nicht, wurden Dokumente in kleiner Auflage – Arbeitsblätter in der Schule, Aufgabenzettel für die Anfängervorlesung und ähnliches – im Umdruckverfahren hergestellt. Man schrieb den Text auf ein Blatt Kunstdruckpapier mit einem Blatt Kohlepapier dahinter. (Damals gab es noch „Durchschläge“: Die Kohle färbte auf ein dahinter liegendes Blatt ab und erzeugte so eine Kopie; diese längst vergessene Technik lebt in der Abkürzung „cc“ für „carbon copy“ fort.) Beim Umdruckverfahren lag allerdings das sehr intensiv beschichte Kohlepapier „verkehrtherum“, so dass die Kohle spiegelverkehrt auf die Rückseite des Blattes gepresst wurde. Nach vollbrachter Schreibarbeit spannte man das Blatt – Kohle nach außen – auf eine Trommel und drückte es mit geeigneter Mechanik gegen ein brennspiritusbefeuchtetes, saugfähiges Blatt Papier. Der Spiritus löste von der Vorlage ein wenig Kohle, die vom Papier eingesogen wurde, wodurch ein seitenrichtiges Abbild entstand.

Für ein gute Druckqualität empfahl es sich, auf der mechanischen Schreibmaschine – richtige Typenhebel, nix Kugelkopf, nix Typenrad – kraftvoll in die Tasten zu hauen, damit auch reichlich Kohle aufs Papier kam. Da konnte im Eifer des Gefechts der Typenhebel fürs kleine „o“ schon mal ein Loch ins Papier stanzen, wodurch am Ende von dem Buchstaben nur ein schmaler äußerer Rand im Druck sichtbar war.

In einer Diplomprüfung in angewandter Mathematik stellt der Prüfer die Frage, wie das Skalarprodukt im Raum L2 definiert sei, und erhält die überraschende Antwort „Integral über f(x) komponiert mit g(x) dx“. Nach einer Pause der Ratlosigkeit versucht der Prüfer, mit gezielten Fragen dem Kandidaten die richtige Antwort „Integral über f(x) mal g(x) dx“ zu entlocken – vergebens. Der Kandidat beharrt auf seiner Version, fürchtet sogar, er würde aufs Glatteis geführt, und kramt schließlich zum Beweis das Skript heraus, nach dem er gelernt hat. Da steht \( \int f(x) \circ g(x) dx \), und der Kringel in der Mitte ist in der Tat das Zeichen für die Komposition (Hintereinanderausführung) von Funktionen. Zu dumm, dass der Mensch, der die Vorlage für das – im Umdruckverfahren hergestellte – Skript tippte, bei dem Malpunkt zwischen f(x) und g(x) so heftig zugeschlagen hatte, dass nur noch der Kringel stehen blieb.

Der Kandidat hat also zweifelsfrei sehr exakt gelernt; aber das hilft nichts. Denn hätte er die Formel fürs Skalarprodukt auch nur an den einfachsten Beispielen anzuwenden versucht, wäre ihm klargeworden, dass die Version mit dem Kringel nicht stimmen kann.

Warum erzähle ich diese – ziemlich alte – Geschichte? Weil in einem kürzlich durchgeführten Experiment die Software ChatGPT noch wesentlich schlechter aussieht als damals der Prüfling. Joachim Escher, Professor für Mathematik an der Universität Hannover, stellt ChatGPT ein paar einfache Fragen zur elementaren Zahlentheorie [1]. Nichts Tiefsinniges; es geht um Teilbarkeit und Primzahlen, was man so in der 7. Klasse lernt. ChatGPT gibt haarsträubende Antworten. Es behauptet, 2023 sei eine Primzahl (nein, 2023 = 7 . 172), macht dann auf die Bitte, 2023 durch 119 (= 7 . 17) zu teilen, elementare Rechenfehler mit dem Ergebnis, dass die Division nicht ohne Rest aufgeht, und beharrt auf diesem falschen Ergebnis. Wenig später behauptet es, 2023 sei gleich 43 . 47 (nein, es kommt 2021 heraus). „Merkwürdig, wenn die eine Zahl auf 3 und die andere auf 7 endet, mit welcher Ziffer endet dann das Produkt?“ fragt Escher, ganz der wohlwollende Prüfer. Und selbst dann kommt ChatGPT nicht auf die Idee, es könnte ein Rechenfehler vorliegen. Ein echter Mensch wäre bei dieser Prüfung glatt durchgefallen.

Sowohl ChatGPT als auch der unglückliche Prüfling hatten sich fleißig eine große Menge an Material reingezogen (ersteres nutzte beim Training reichlich 175 Milliarden Dokumente), aber eben nicht ernsthaft verarbeitet. Deswegen mussten sie beide scheitern. Der Mensch, weil er ohne diese Verarbeitung einen – sagen wir – Schreibfehler in der Quelle nicht erkennen und entsprechend nicht ausbessern konnte. Die künstliche Intelligenz, weil… das wissen wir nicht so genau. Vielleicht hat eine der Quellen tatsächlich einen falschen Rechenweg enthalten. Wahrscheinlicher ist es, dass ChatGPT, wie das so seine Art ist, an eine vorliegende Sequenz von Worten das statistisch plausibelste Wort angehängt hat, und das immer wieder. So konstruiert das Programm diese erstaunlich eloquenten Sätze. Aber diese statistische Methode hilft natürlich nicht gegen Rechenfehler.

Ich komme zu dem Schluss, dass diese künstliche Intelligenz eben doch ziemlich blöde ist, und lehne mich beruhigt zurück, da ich mich meiner überlegenen Intelligenz vergewissert habe.

Nur drei Monate später wird diese Gewissheit empfindlich gestört. In derselben Zeitschrift wie Joachim Escher, nur eine Ausgabe später, berichtet Christian Spannagel, Professor an der PH Heidelberg, dass ChatGPT auf klassische Aufgaben korrekte Antworten gibt, sogar auf mehrfaches Befragen hin verschiedene Wege zur Lösung derselben Aufgabe beschreitet und insgesamt die Leistungen eines guten Studierenden erbringt [2]. Von der Vorstellung, 2023 sei eine Primzahl, lässt es zwar nicht ab, und auch sonst gibt es immer wieder mal falsche Antworten. Aber auf eine Textaufgabe, die erst in eine mathematische Formulierung umzusetzen ist, liefert es, zwanzigmal gefragt, zwanzigmal die richtige Lösung, mit verschiedenen Lösungswegen und jedesmal etwas anders formuliert. Die neue Version GPT-4, wohlgemerkt; dem Vorgänger GPT-3.5 gelangen nur 13 von 20 Versuchen.

So wie es aussieht, hat diese künstliche Intelligenz in wenigen Monaten mächtig zugelernt. Zu allem Überfluss kann sie mittlerweile auf ein sehr mächtiges Rechengerät zurückgreifen: Die Firma Wolfram, welche die Universal-Mathematik-Software Mathematica entwickelt hat und vertreibt, hat einen „Adapterstecker“ zu ChatGPT programmiert, ein Programm, das eine Frage in natürlicher Sprache – vom menschlichen Nutzer oder von ChatGPT selbst formuliert – entgegennimmt, in den Formalismus von Mathematica umsetzt, an dieses weiterreicht und das Ergebnis der Berechnung, in natürliche Sprache umformuliert, zurückgibt. Um genau zu sein, es ist nicht Mathematica allein, sondern dessen Erweiterung Wolfram alpha, die außer den Rechenkapazitäten noch allerlei geografische und andere Daten bereithält.

Seit seiner Erstveröffentlichung im November 2022 hat ChatGPT nicht nur gewaltiges Aufsehen erregt, sondern auch an Fähigkeiten erheblich zugelegt. Wenn dieser steile Aufstieg so weitergeht: Ist die Software auf dem Weg zu einer echten Intelligenz?

Der renommierte und fachkundige Journalist Anil Ananthaswamy hat ChatGPT auf eine spezielle Intelligenzleistung getestet, die unter den Fachleuten als theory of mind diskutiert wird: Ist der Kandidat in der Lage, sich in die Gedankenwelt eines anderen hineinzuversetzen? Für kleine Kinder pflegt man dafür den „Sally-Anne-Test“ heranzuziehen. Sally legt eine Murmel in den linken von zwei Körben und verlässt dann den Raum. Währenddessen legt Anne, die im Raum geblieben ist, die Murmel vom linken in den rechten Korb. Sally kommt zurück. An dieser Stelle wird der Kandidat, der das alles beobachtet hat, gefragt: „In welchem Korb wird Sally die Murmel suchen?“

Sehr kleine Kinder pflegen zu antworten: „Im rechten“, da ist die Murmel ja schließlich. Erst wenn sie ungefähr drei bis vier Jahre alt sind, können sie erkennen, dass Sally den linken Korb wählen wird, weil sie Annes Verlegeaktion nicht mitbekommen hat. Erst dann haben sie sich eine theory of mind zugelegt – in diesem Fall von Sallys mind.

Der Sally-Anne-Test ist in der Literatur ausgiebig beschrieben worden. Zweifellos waren diese Beschreibungen auch unter den Milliarden Texten, die ChatGPT während seiner Trainingsphase verarbeitet hat. Auf eine Frage, die auch nur ungefähr die Geschichte vom Sally-Anne-Test erzählt, würde es ohne weiteres eine korrekte Antwort „aus dem Gedächtnis rekonstruieren“ können, wie der Kandidat, der zwar die Formel fürs Skalarprodukt richtig rezitieren kann, aber im Übrigen keine Ahnung davon hat. Das wäre also noch kein Beweis dafür, dass ChatGPT eine theory of mind hat.

Also legt Ananthaswamy seine Frage raffinierter an. Er erzählt nach wie vor die Sally-Anne-Geschichte, aber die Beteilgten heißen nicht Sally und Anne, sondern Alice und Bob, der Kontext ist völlig anders, und damit es noch ein bisschen schwerer ist, kommt die Aufgabe hinzu, aus der gewonnenen Erkenntnis eine Schlussfolgerung zu ziehen. In einem Vortrag, den Ananthaswamy am 5. Juli 2023 in der Mathematik-Informatik-Station (MAINS) in Heidelberg gehalten hat, führt er seine Frage an ChatGPT und dessen Antwort vor (ab Minute 7).

ChatGPT besteht den Test mit einer glatten Eins. Es zieht nicht nur die richtige Schlussfolgerung, sondern begründet auch, warum Alice (statt Sally) annimmt, ihre richtige Brille liege in der linken statt der rechten Schublade, und deswegen am nächsten Tag heftige Kopfschmerzen hat.

Hat ChatGPT also eine theory of mind? Schwer zu sagen, vor allem weil OpenAI, die Firma, die es entwickelt hat, wesentliche Einzelheiten für sich behält. Stephen Wolfram („Mathematica“) hat in einem sehr ausführlichen Überblick zusammengetragen, was man trotzdem weiß. Und eine theory of mind oder Ähnliches ist ChatGPT definitiv nicht explizit einprogrammiert worden. Noch ist sein Verhalten auch sehr instabil. In einem Artikel in „Science“ weiß Melanie Mitchell zu berichten, dass es gewisse amerikanische Standard-Prüfungsfragen korrekt beantwortet, aber an denselben Fragen, geringfügig anders formuliert, kläglich scheitert.

Aber nehmen wir an, dass die Software mit der nächsten Version noch erheblich an Stabilität zulegt und dann auch noch härtere Tests besteht. Wird dann die Grenze zwischen deren Fähigkeiten und echtem Verständnis verschwimmen? Und was ist eigentlich echtes Verständnis?

Für einen Mathematiker wie mich wird diese Frage besonders pikant, denn bei den Gegenständen der Mathematik weiß man typischerweise nicht – kann es nicht wissen –, was sie „eigentlich“ sind. Was man wissen – und in der Prüfung abfragen – kann, ist nur, wie man mit ihnen umgeht. Und das wiederum ist in Definitionen festgelegt, die man auswendig lernen kann.

Was also – sagen wir – ein Skalarprodukt ist, erschließt sich erst durch den Umgang mit diesem Begriff, das heißt durch den Sprachgebrauch. Und hier drehen die drei Philosophen Christoph Durt, Tom Froese und Thomas Fuchs den Spieß um: Allein im alltäglichen Gebrauch der Sprache ist so viel außersprachliche Bedeutung (meaning) enthalten, dass ein large language model (LLM) wie ChatGPT allein durch den Konsum großer Mengen geschriebener Sprache während der Trainingsphase genug meaning aufsaugt, um damit zumindest diverse Tests zu bestehen.

Das ganze Gebiet ist in heftiger Bewegung. Mit weiteren Überraschungen ist zu rechnen.

[1] Joachim Escher & ChatGPT: Mündliche Prüfung mit ChatGPT. Oder warum die Primzahl 2023 = 43 x 47 ist. Mitteilungen der Deutschen Mathematiker-Vereinigung 31 (2), S. 102–103, 2023

[2] Christian Spannagel: Hat ChatGPT eine Zukunft in der Mathematik? Mitteilungen der Deutschen Mathematiker-Vereinigung 31 (3), S. 168–172, 2023

Avatar photo

Christoph Pöppe (Jahrgang 1953) hat Mathematik und Physik studiert und über allerlei partielle Differenzialgleichungen geforscht, bis er 1989 ziemlich plötzlich Redakteur bei „Spektrum der Wissenschaft“ wurde. Fast 30 Jahre lang hat er für diese Zeitschrift Texte bearbeitet und selbst geschrieben, vornehmlich über Mathematik und verwandte Gebiete. Nach wie vor schreibt er gelegentlich Beiträge für die Rubrik „Mathematische Unterhaltungen“. Seine Liebe zum Fach lebt er auch in allerlei geometrischen Objekten aus, die gelegentlich – in Großveranstaltungen mit vielen Beteiligten – ziemlich monumental geraten. Nebenher bietet er in einem Internet-Laden Bastelbögen für allerlei geometrische Körper an.

69 comments

  1. “… sich in die Gedanken anderer einfühlen?”

    Wie sollte das funktionieren, wo das schon der Programmierer nicht oder nur vage kann, bzw. wo die Gefühle von wettbewerbsbedingt-konfusionierten Menschen DAS Problem dieser manipulativ-schwankenden “Werteordnung” darstellen, gemeint ist die gleichermaßen unverarbeitete und somit zeitgeistlich-systemrational gepflegte Bewusstseinsschwäche in Angst, Gewalt und “Individualbewusstsein”???!

    ChatGPT hat keine Gefühle, also auch kein Einfühlungsvermögen, was die KI der KI Mensch spiegelt, ist also nur die gleichermaßen …!?

  2. Ja, die funktionellen Fähigkeiten eines grossen Sprachmodells wachsen mit der Anzahl Parameter. Dies zeigt das unten verlinkte animierte GIF. Mit 400 Milliarden Parametern kann ein LLM sogar logische Schlussketten mehr oder wenig korrekt erstellen und es verfügt über „gesunden Menschenverstand“ (common sense).

    Doch selbst mit solch vielen Parametern macht es immer wieder haarsträubende Fehler. Ganz einfach darum, weil ihm die logischen Grundlagen des erworbenen Wissens fehlen. Der Erwerb von Fähigkeiten entspricht also einfach einem exzessiven Training, welches auch zu einer durchaus „klugen“ Verallgemeinerung führt. Nur ist die erworbene Abstraktion nur begrenzt robust.

    Die zu google gehörige Firma DeepMind will dieses Problem beheben/lösen, indem sie das Sprachmodell die Anfrage so aufbereiten/umformulieren lässt, dass das LLM die Aufgabe an andere AI-Programme übergeben kann, die nicht in erster Linie mit Sprache, sondern mit Konzepten arbeiten

    https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgLXCWMlipdu0gFF6hsiJHbxg1zSaEkdDWfl-8RakQuW__8RPvlOS9KGIScNCytxT4jz9isnx0GLMwbS1G0Q4WdXzT42GszgfwIIAVX1H3J-43lVWWqcb–q9cPsxCsJFFz2dRfpKgEmLe-xfIyBqQuPq1BPYcK9CtAK1_xnhgvgAAx0GeZmODJxGNMYQ/s1600/image8.gif

    • Martin Holzherr schrieb (18.10.2023, 22:04 o’clock):
      > [… dass] das Sprachmodell die Anfrage so aufbereiten/umformulieren [soll], dass […] die Aufgabe an andere AI-Programme übergeben [wird.]

      Für das entsprechende Training würden sich sicherlich besonders solche Daten eignen, die von vornherein in der Form

      [[ <beauftragtes.AI-Programm>#<konkrete.Aufgabenstellung> | <sprachliche.Äußerung> ]]

      strukturiert sind. …

      … Wobei die betreffende <sprachliche.Äußerung> entweder an sich bedeutungsvoll und zu analysieren ist,
      oder, falls es sich dabei “nur” um einen Wortzwischenraum oder ein sonstiges Interpunktionszeichen handelt, diese als Referenz zur (bedeutungsvollen und zu analysierenden) gesamten vorausgehenden sprachlichen Äußerung (beginnend z.B. am Satzanfang) zu nehmen wäre.

      p.s.
      Die konkrete Syntax ist natürlich egal, solang sie nur überhaupt erkennbar ist und mit entsprechender Funktion verbunden ist.
      Mein Vorschlag, im Rahmen des WikiProject.Encyclopedic.Network, Wikilinks eine “wikibriq”-Struktur (wie die oben dargestellte) zu geben, scheiterte seinerzeit ja daran, dass das Zeichen “#” einschl. seiner (inzwischen bestehenden) Funktion in Wikilinks damals (noch ?) nicht dokumentiert war, oder womöglich noch gar nicht entsprechend einsetzbar war,
      und mir folglich weder dieses Zeichen in dieser Funktion damals überhaupt bekannt war; noch, dass diese von mir vorgeschlagene Funktion unter Einsatz genau dieses Symbols womöglich sogar schon damals vorhanden gewesen wäre. (Too bad. We’re artists! ;)

    • Ergänzung: Künstliche neuronale Netze sind nicht 100% zuverlässig, aber das gilt womöglich auch für natürliche neuronale Netze. Ich vermute, die Evolution war viele Millionen Jahre damit beschäftigt, fehlertoleranter in Bezug auf „geistige“ Leistungen zu werden. Ein Hinweis darauf sind etwa die vielen Tremorformen beim Menschen, also das Zittern bei Bewegungen, denn Zittern kommt oft durch einen Ausfall der Unterdrückungsmassnahmen des Zitterns zustande. Jede motorische Bewegung muss in Echtzeit korrigiert werden, sonst kann die Bewegung unkontrolliert oder zittrig werden.
      Auch bei höheren geistigen Leistungen gibt es Fehlerkorrekturen und man spricht ja auch davon, man müsse etwas noch einmal überdenken.

      Konkret könnte das bedeuten, dass man die heutigen Fehlleistungen von etwa ChatGPT auch durch eine Art Überbau vermeiden könnte, indem auch ChatGPT alles noch einmal überdenkt, bevor es etwas ausgibt.

  3. Vielleicht muss man ernsthafte Gedächtnisprobleme haben, um zu merken, dass es so was wie „Wissen“ oder „Verständnis“ auch beim Menschen nur als zweckdienliche Lüge gibt. Es sind Tags, wie die Exif-Daten an einem Jpg oder Ordnernamen, das Gehirn markiert damit Daten, für die es keine Zusatz-Rechenpower aufwenden will – also „gefrorene“ Daten, die nicht mehr verknüpft oder verändert werden. Wenn Sie besagte Probleme haben, merken Sie, dass Sie sich ganz sicher sein können, etwas zu wissen oder zu verstehen – bis sie in den Ordner schauen und mit Schrecken bemerken, dass er leer ist.

    Wenn ich mir das Konzept genauer ansehen will, nehme ich zum Beispiel das Wort „Tür“ und beobachte meinen Verstand. Und ich sehe schnell, dass es ein Nexus ist – es zieht bestimmte Informationen aus dem Hinterkopf und löscht sie nach Gebrauch wieder, so schnell und fließend, dass ich es kaum fassen kann. Auch die Algorithmen für all die Prozesse, wie ich die Tür verarbeiten kann – zum Beispiel hindurchgehen, sie schließen, öffnen, Klimmzüge daran zu machen – stehen bereit, und zwar gestaffelt nach Umständen – ich sehe weniger Grund, sie zu schließen, als hindurchzugehen, weil dahinter die Küche ist und ich Durst habe. Das Konzept „Tür“ bleibt als Oberbegriff im Hintergrund enthalten, und das schließt aus, dass ich die Ecke links oben anders interpretiere, als die Ecke eines Türrahmens. Wenn ich im Kopf auf „Ecke“ zoome, verblasst die Tür, die Links zu allen möglichen Ecken gehen online.

    Ich sehe also, dass meine Art, die Welt zu sehen und zu verarbeiten, auf sichtbare, bewusst wahrnehmbare Art die Netzwerk-Struktur meines Gehirns spiegelt, des neuralen Wikipedia mit seinen unzähligen Hyperlinks.

    Wenn Sie also meinen, Sie würden eine Formel verstehen, bedeutet das nur, Ihr Gehirn sagt Ihnen, die Informationen, die Sie brauchen werden, um damit zu arbeiten, stehen auf Abruf bereit, und schenkt Ihnen beim bewussten Nachprüfen ein gutes, sicheres Gefühl dazu, um Ihre Aufmerksamkeit herunterzufahren – Ihr Bewusstsein, die Rechenpower, die es an sich zieht, wird woanders dringender gebraucht: Gehen Sie weiter, Chef, dieses Büro arbeitet wie gewohnt, es erfüllt seine Aufgaben korrekt, mehr müssen Sie nicht wissen. Schätze mal, alles Wissen ist irgendwie ein Traum. Naja, alles im Gehirn ist ein Traum, „Wachzustand“ ist auch nur ein Exif-Tag. Eng verwandt mit dem Nexus, dem Wort „Tür“ im oberen Beispiel.

    Sprache und Verständigung funktionieren generell durch Spiegeln – wir kopieren ganze Netzwerke, um die Welt auf halbwegs kompatible Weise zu verarbeiten. Alle Information, die Sie brauchen, um die Konzepte „Tür“, „Welt“, „zu“, „verarbeiten“ zu verstehen, ist bereits in Ihrem Hirn enthalten. Die Worte brauchen nur als Hämmerchen auf jeden Nexus zu klopfen, Knöpfchen zu drücken, um ein grobes Abbild meiner Gedanken in Ihr Gehirn zu klonen. Natürlich ist dieser Klon in dem Moment mutiert, in dem er entsteht, denn Ihr Netzwerk ist dann doch erheblich anders. Aber ich kann Ihr Hirn damit genauso verändern, wie Ihre eigenen Gedanken, und Sie umgekehrt meines. Im Grunde sind wir ein Hirn, per WLAN verknüpft, es sind die Defizite der linearen Übertragung durch Sprache, die die Dissoziation in zwei eigenständige Persönlichkeiten mit duplizierten Datensätzen nötig machen.

    Auch ein „Ich“ ist ein Exif-Tag, eine Zusatz-Information, die ein Hirn an seine Prozesse anhängt. Es ist im Grunde nur eine Verwaltungseinheit, die, wenn Sie genau hinschauen, nur dann da ist, wenn Sie sie abrufen. Während Sie diesen Text lesen, ist kein „ich“ da, das Bewusstsein enthält nur einen Text, der gelesen wird – bis Sie nachgucken, dann ist der Tag sofort präsent. Anscheinend wird er auf Standby bereitgehalten, wird automatisch in die RAM geladen, wenn wir es mit den Computervergleichen etwas übertreiben.

    Und wie kopieren wir die Netzwerke? Hauptsächlich durch Zuckerbrot und Peitsche und Wiederholungen. Seit Ihrer Kindheit erforschen Sie Ihre Umwelt, als Sie das erste Mal eine Tür sahen, war sie wohl bloß ein Farbfleck unter vielen. Irgendwann lernten Sie, dass sich die Farbflecke unterschiedlich verformen, und verknüpften diese Information mit der Entfernung, die Sie laufen mussten, bis Sie sich Ihr Köpfchen stießen. Sie lernten, dass diese Form wichtig ist, denn dadurch gelangen Sie in eine völlig andere Umwelt, für die Sie ganz andere Hintergrunddaten in die RAM hochladen müssen, Sie lernten, dass in jeder dieser Welten andere Belohnungen und Bestrafungen auf Sie warten, dass Ihre Eltern immer „Tür“ sagen, wenn sie über den Teleporter in Paralleluniversen reden. Irgendwann hatten Sie alles abgespeichert, was Sie über Türen, Türgriffe und Scharniere verknüpfen konnten, neue Informationen kamen nicht mehr dazu, also sagte Ihr Hirn – fertig. Ich tagge „Tür“ mit „kenne ich, verstehe ich“, stelle nie wieder Fragen dazu, denke nie wieder darüber nach, hinterfrage nichts. Der Nexus ist erstellt, er hat ausreichend Verknüpfungen, ich brauche keine Rechenpower mehr darauf zu verwenden, die Bautrupps und die Bulldozer werden abgezogen, es kommt höchstens ein Hausmeister dran, der den Knoten putzt, repariert und füttert. Sie haben eine enorme Datenmenge verarbeitet und die nötigen abgespeichert.

    Es kommt also im Wesentlichen auf die Art an, wie ChatGPT lernt, wie es Informationen assoziiert und ordnet, wie es belohnt und bestraft wird, welche Kapazitäten an Chips, RAM und Festplatten ihm zu Verfügung stehen, wenn man seine Logik verstehen will. Und natürlich lebt es in einer virtuellen Umwelt ohne Sinnesorgane – wäre es ein menschliches Hirn, würde es sich bestimmt wie besoffen vorkommen, denn, wenn wir die Häufigkeit der Wiederholungen und Zahl der Verknüpfungen, die gleichzeitig auf Standby gehen, irgendwie mit Größe und Entfernung gleichsetzen, ist es Alice in Wunderland auf Crack – alles wird willkürlich und planlos größer, kleiner, kommt näher und entfernt sich. Vielleicht ändern sich auch die Farben, Tonhöhen, keine Ahnung.

    Ich gehe zwar davon aus, dass Stromfluss = Bewusstsein ist, also dürften auch Computer so was in der Art haben. Aber wie es darin aussieht ohne die ganzen Exif-Tags? Gibt es irgendwas, das sie als Farben, Geräusche, Berührungen, Empfindungen interpretieren? Haben sie Gefühle? Haben Sie Bewusstsein und Gefühle? Ich weiß nur, wenn ich Sie frage, geben Sie mir genauso Antworten, wie wenn ich ChatGPT frage. Oder in der Tapete ein grinsendes Gesicht sehe, weil ein zufälliges Muster die falschen Knöpfchen drückt.

    Anscheinend sind ein paar mit Suchfunktionen verbunden, angeborenen und gelernten. Also, ein paar Knöpfchen warten immer darauf, dass Information aus Sinnesorganen sie drücken.

    Kurzum – die Tatsache, dass ich als Einheit existiere, ist eine Lüge, die dadurch wahr wird, dass mein Hirn sie sehr, sehr hoch bewertet und kaum in der Lage ist, sie n i c h t mit jeder Information zu assoziieren, die es verarbeitet. Ich werde auch für gewöhnlich hart bestraft, wenn ich nicht so tue, als wäre ich eine Person, und belohnt, wenn ich es als selbstverständlich voraussetze, sodass ich nie Gründe bekomme, daran zu zweifeln und per Dauerwiederholung in der Lüge bestätigt werde.

    „Echte Intelligenz“? „Intelligenz“? Die Ordner würde ich mal aufmachen. Kann es sein, dass Sie darin gähnende Leere vorfinden. Oder nur wirres Geschwafel, das krampfhaft eine Bedeutung erzwingen will, wo es keine gibt, wie das, das Sie immer wieder sehen, wenn der Mensch seine Überlegenheit über das Tier, der Mann über die Frau oder der Weiße über den Schwarzen rational zu begründen versucht. Und was Theory of Mind angeht – ich würde mir eine grundlegende Architektur überlegen, nach der ein Verstand arbeiten, die Welt grundsätzlich ordnen muss, um darin funktionieren und kommunizieren zu können – um Netzwerke zu erstellen, die unterm Strich auf „Verstehen“ hinauslaufen. Fühlen Sie sich in einen Computer ein, den es noch nicht gibt, und dann bauen Sie ihn.

    • Paul S.: “Ich gehe zwar davon aus, dass Stromfluss = Bewusstsein ist, also dürften auch Computer so was in der Art haben.”

      Ja, KI Mensch delegiert, wie im Sinne des reformistischen Zeitgeist herkömmlich-gewohnt (Kreuzchen auf dem Blankoscheck / Schuld- und Sündenbocksuche), den geistigen Stillstand an den “Treuhänder” Computer, aber das Verantwortungsbewusstsein wird dabei sicher nicht zu Möglichkeiten eines geistig-heilenden Selbst- und Massenbewusstsein wachsen, denn der Stromfluss wird die wettbewerbsbedingte Hochspannung verschärft transformieren. 😎🤙

  4. @Paul S 19.01. 00:06

    „Fühlen Sie sich in einen Computer ein, den es noch nicht gibt, und dann bauen Sie ihn.“

    Keine schlechte Idee. Wir Menschen haben doch eine eigene Innenwelt, die könnte man doch vielleicht irgendwie nachbauen. Jetzt erstmal nicht beim Sprachverständnis, aber etwa bei Selbstfahrsystemen. Da brauchen wir einen abgebildeten Außenraum, der die Fahrbahn und alle möglichen Hindernisse enthält, und dann eben einen möglichen Fahrweg erkennen kann.

    Wenn wir solche Innenräume mit anderen Funktionen verbinden könnten, eben auch mit Sprachverständnis, dann kämen wir einer Nachbildung unserer Innenwelten näher, und könnten eventuell wirkliche Existenzen erzeugten. Wirkliches Seelenleben eben.

    Gleichzeitig könnten diese, wenn sie denn wirklich funktionieren, auch dazu beitragen, dass wir unserer eigenen Innenwelten so weit verstehen, dass wir wissen, wie wir selber funktionieren.

  5. Kann ChatGPT sich in die Gedanken anderer einfühlen?
    Für Funktionalisten übersetzt sich diese Frage zu: Liefert ChatGPT für „Theory of Mind“-Probleme die gleichen oder äquivalente Antworten wie Versuchspersonen. Denn: gemäss dem Funktionalismus sind zwei Systeme (etwa eine Person und ChatGPT) äquivalent, wenn sie für denselben Input denselben Output liefern. Wenn beide zum gleichen Resultat kommen kann man das einte System durch das andere ersetzen, etwas was man Fungibilität nennt, ein Ausdruck, den vor allem der lebenslang mit Philosophy-Of-Mind -Problemen beschäftigte Daniel Dennett immer wieder gern verwendet.

    Ein plausibler Einwand gegen den Funktionalismus scheint mir der zu sein, dass etwas nur dann wirklich äquivalent ist, wenn es ähnliche innere Repräsentationen besitzt, wenn als die Hintergrund-Gedanken des einen bewussten Systems auch vom anderen verstanden werden können . Konkret: Nur wenn ChatGPT versteht, warum eine Versuchsperson bei einer „Theory-Of-Mind“-Aufgabe zu einem bestimmten Resultat kommt, nur dann ist auch ChatGPT diesbezüglich kompetent.

  6. Hallo Herr Pöppe,

    aus meiner Sicht werden in Ihrem Blogbeitrag zwei Themen vermischt die nichts miteinander zutun haben.

    Thema 1: Kann eine AI die Fähigkeit besitzen das Wissen, Sichtweisen, Perspektiven, Intentionen, etc. einer Person computational zu berechnen und korrekt vorhersagen, nämlich aufgrund bestimmter Informationen und Verarbeitungsweisen die das System besitzt und zusätzlich Informationen die es sich erarbeiten kann? Dies wird in Zukunft ganz sicher und immer besser möglich sein. Für mich ist das nur eine Frage der Zeit. Aber es hat nichts mit der “Theory of Mind”, mit “Intelligenz”, oder mit “Bewusstsein” wie bei Lebewesen zutun.

    Thema 2: Die Theory of Mind ist kein Fakt sondern nur eine von vielen psychologischen Theorien bezüglich der Perspektivübernahme einer anderen Person; es gibt daneben noch die simulation theory etc. pp.
    Egal welche Theorie man auch nimmt, die Theory of Mind bezieht sich auf Menschen und einige Tiere, also auf Lebewesen (die grundsätzlich anders als Computer funktionieren). Wendet man diese Begriffe, Modelle und Theorien auf Software an, so vermischt man nur Phänomene und Systeme die nichts miteinander zutun haben, auch wenn es oberflächlich vielleicht für manche Menschen so sein mag. Dann gelangt man in abstrakt-sterile philosophische Diskussionen, z.B. bezüglich der Frage ob eine AI “wirklich etwas verstehen kann” oder “echte Intelligenz” (wie Sie schreiben) aufweisen kann. Was soll das sein, echte Intelligenz? Solche Fragen sind meiner Ansicht nach alle sinnlos da man eben ein menschliches Artefakt (Computer, Software) mit einem biologischen System vergleicht. Beide funktionieren anders.

    Ich würde daher sagen dass Thema 1 das interessante Thema wäre. An diesem Thema kann man wirklich arbeiten. Bei diesem Thema sind in Zukunft immer bessere Ergebnisse zu erwarten. Thema 2 ist verschwendete Zeit und Beschäftigungstherapie für manche Philosophen da man hier letztendlich immer in metaphysische Grunddiskussionen gelangt bei denen nichts zu holen ist.

    Der grundlegende Punkt ist der folgende: die Theory of Mind ist eine Theorie die versucht zu erklären wie Menschen beispielsweise die Intentionen oder das Wissen von anderen Personen theoretisch schlussfolgern (sie wird deshalb beispielsweise häufig stark aus Seiten der Phänomenologie kritisiert, beispielsweise von Thomas Fuchs den Sie ja auch zitiert haben, nämlich mit der Begründung das diese Fähigkeit über die zweite-Person Perspektive geschieht und nicht über theoretische Schlussfolgerungen in der dritten-Person Perspektive ala ToM).

    Und dieser Prozess den alle Theorien (also auch die ToM) versuchen zu erklären ist in einem Menschen nun einmal völlig anders als in einer AI, auch wenn letztere dies irgendwann bei ausreichend guter Software und Information ebenfalls können wird – aber eben internal auf eine komplett andere Art und Weise! Ich halte also gar nichts davon solche Theorien auf Computer anzuwenden, auch wenn es Wissenschaftler und Philosophen gibt die dies tun. Es sorgt nur für Verwirrung und führt zu sinnlosen Fragen.

  7. @Philipp 20.01. 04:49

    „..auch wenn letztere dies irgendwann bei ausreichend guter Software und Information ebenfalls können wird – aber eben internal auf eine komplett andere Art und Weise!“

    Nervensysteme und Computer haben die selben Aufgaben, auch wenn die Details der Bauweise unterschiedlich sind. Aber auch die Bauweise kann Ähnlichkeiten haben, z.B. sind die Neuronalen Netze der aktuellen Sprach-KI Nervensystemen abgeguckt. Ganz anders umgesetzt, klar, aber mit im Kern recht ähnlicher informatischen Leistung.

    „Ich halte also gar nichts davon solche Theorien auf Computer anzuwenden, auch wenn es Wissenschaftler und Philosophen gibt die dies tun. Es sorgt nur für Verwirrung und führt zu sinnlosen Fragen.“

    So viel „Verwirrung“ kann hier glaube ich auch nicht schaden. Breiter aufgestellte Sichtweisen auf KI und Nervensysteme können finde ich weiterführen, und sich stellenweise gegenseitig fördern.

    Auch der uralten Geistesfrage kann man vielleicht mit KI-Entwicklung näher kommen, etwa wenn sich herausstellt, dass KI mit Zufallszahlen, die auf Quantenrauschen beruhen, besser funktioniert als mit mathematisch generierten Pseudozufallszahlen. Das könnte man dann auch auf Nervensysteme übertragen, und so entsprechend den Geistesweltenanteil der menschlichen Psyche einordnen. Das könnte dann wiederum eine Möglichkeit sein, spirituelle Erfahrungen verschiedener Art zu erklären.

    So oder so, die KI Entwickler wollen funktionierende Systeme haben und die Hirnforscher wollen die Funktionsweise des Gehirns erforschen, jeder arbeitet da für sich. Wer Lust hat, zu gucken was der andere macht, der wird dies tun. Jeder hat auch seine eigenen Lebenserfahrungen, auf die er nun mal aufbauen muss, was dann einen gewissen Pluralismus unausweichlich macht.

  8. @ Jeckenburger:

    Sie verstehen die Kritik nicht.
    Zu behaupten dass eine AI eine “Theory of Mind” nutzen könnte oder würde ist in etwa so als würde man sich Gedanken darum machen ob eine AI nicht irgendwann auch einmal auf Toilette müsste, oder dass Sie sich eventuell einmal beschwert dass Sie eine Nacht Pause benötigt.

    Theory of Mind eine psychologische Theorie die sich auf einen bewusst-biologischen/psychologischen Prozess in einem Lebewesen bezieht. Sie hat nichts (aber auch gar nichts) mit Prozessen im Computer zutun die eines Tages sicher die Intention des Users oder sein Wissen vorhersagen können (sofern das System denn genügend Informationen über den User erlangen und verarbeiten kann).

    Die AI wird dann vielleicht korrekte Ausgaben geben, ja. Aber die AI ist sich dabei dessen nicht bewusst, es ist kein wirkliches “Verständnis” in diesem Prozess vorhanden. Der Prozess funktioniert ganz anders als das was die Theory of Mind für einen Menschen oder für höhere Tierarten beschreibt.

    Es ist einzig interessant zu verstehen wie dieser Prozess bei einer AI dann funktioniert; aber es ist irreführend von Theory of Mind zu sprechen oder sich zu Fragen ob die AI nun “in Gedanken einfühlen kann”.

    • @Philipp: Ich gebe ihnen in der Beurteilung der ToM-Leistung von ChatGPT weitgehend recht, doch sie gehen auf einen wichtigen Punkt zu wenig ein, auf die Sprache nämlich. Wer im Gespräch besteht und als Gesprächspartner ernst genommen wird, dem wird fast automatisch Menschenähnlichkeit zugestanden. Das ist ja auch der Grund, dass Alan Turing den Turing-Test als Konversation designt hat.

      Sogar der Literatur-Nobelpreisträger Kazuo Ishiguro äusserte den Gedanken, wenn ChatGPT irgendwann einen für ihn überzeugenden Roman schreibe, dann brächen für ihn ganz viele Annahmen über das, was den Menschen ausmache, zusammen.

      Ich bin überzeugt, wir werden in Zukunft noch viel über dieses Problem diskutieren.

      • @ Holzherr

        Machen wir es mal konkret.

        Stellen Sie sich vor, die AI könnte, sofern sie ausreichend Informationen und eine passende Softwaretechnik besitzt, Ihre Intentionen oder ihr Wissen bezüglich einer Thematik korrekt vorhersagen.

        Bedeutet dass dann das die AI für diesen Prozess eine ToM benutzt? Wie kontern Sie (oder andere Menschen hier) die Aussage einer anderern Person die beispielsweise behauptet dass die AI dafür die Simulation theory statt die ToM benutzt? Sie sehen dass Sie gar keine Evidenz für die ToM hätten, ja dass es ohnehin unmöglich wäre dafür Evidenz aufzuzeigen.

        Die ToM ist heute die Mainstreamtheorie in der Psychologie, es gibt daneben auch andere Theorien. Da sie aber die Mainstreamtheorie ist wird die Fähigkeit einer Perspektivübernahme häufig direkt mit ToM gleichgesetzt. Nochmal, die ToM ist eine Theorie von vielen die versucht ein Phänomen zu erklären das wir beobachten. Nur weil ein Computer einen korrekten Output bezüglich dieser Aufgabe gibt bedeutet dass doch nicht dass er dafür eine ToM nutzt oder ähnlich oder gleich wie ein Lebewesen funktioniert. Das sind zwei komplett verschiedene Dinge und es ist extrem naiv beides einfach gleichzustellen.

        Wenn Sie sich die neuronale Aktivität des Nervensystems auch einmal genauer anschauen, wie diese sich selbst organisiert, wie diese Eigenorganisation mit Inputs aus der Umwelt reagiert, dann müssen Sie eigentlich sofort einsehen dass das grundsätzlich anders als in einem Computer funktioniert und wirklich überhaupt nicht vergleichbar ist. Solche abstrakt-sterilen philosophischen Denkmodelle wie der von Ihnen angesprochene Funktionalismus (der ohnehin im Paradigma des Leib-Seele-Problems denkt, ja eine Antwort auf dieses ist) haben mit der Realität nichts zutun, das sind Gedankenspielzeuge von Philosophen (ich nehme das nicht mehr ernst).

        Ein Lebewesen wird immer grundsätzlich anders funktionieren als ein Computer, die Sorge Ihres Nobelpreisträgers teile aus vielen Gründen nicht, aber das ist ein anderes Thema.

        • @Philip(Zitat): „ Ein Lebewesen wird immer grundsätzlich anders funktionieren als ein Computer“
          Ja. Nur kümmert das die meisten nicht. Wir wissen nicht einmal wie Menschen funktionieren und beurteilen Menschen ja auch nicht nach ihrer inneren Funktionsweise, sondern beispielsweise nach ihrem Handeln. Beispielsweise sagen wir: „Wer Gutes tut ist gut.“.
          Wenn also später einmal ein Roboter als Pfleger überzeugt, dann kann er die Stelle eines Pflegers einnehmen. Und das gilt für alle weiteren Aufgaben.

  9. @Philipp 20.01. 15:57

    „Die AI wird dann vielleicht korrekte Ausgaben geben, ja. Aber die AI ist sich dabei dessen nicht bewusst, es ist kein wirkliches “Verständnis” in diesem Prozess vorhanden.“

    Derzeit ist das Stand der Technik. Aber das kann sich ändern.

    „Der Prozess funktioniert ganz anders als das was die Theory of Mind für einen Menschen oder für höhere Tierarten beschreibt.“

    Wir haben es noch nicht. Und wir wissen noch gar nicht, wie es funktionieren kann. Aber wir können hier Fortschritte machen. Dem würde ich jetzt nicht vorgreifen. Kann sein, dass die KI zwar erfolgreich mitfühlend mit Menschen interagieren kann, ohne nur einen Funken eigenes Bewusstsein zu haben. Kann aber auch sein, dass sie wirklich selber bewusst wird. Ich würde es versuchen. Irgendwie geht es bei uns ja auch.

    Entweder nach dem biologischem Vorbild, aber auch nach dem was unsere Computer so können, und was da noch draus wird.

    Gleichzeitig wissen wir auch noch nicht, wie wir selber funktionieren. Dem würde ich jetzt auch nicht vorgreifen. Wir werden auch hier Fortschritte machen können, davon gehe ich aus.

    „Es ist einzig interessant zu verstehen wie dieser Prozess bei einer AI dann funktioniert; aber es ist irreführend von Theory of Mind zu sprechen oder sich zu Fragen ob die AI nun “in Gedanken einfühlen kann”.“

    Gucken wir es uns dann an, was da noch kommt. Entweder wir finden in der Technik tatsächlich was Gleichwertiges, was ganz Anderes oder überhaupt nichts Vernünftiges. Wir werden sehen.

    Und wenn wir nur praxistaugliche selbstfahrende Autos hinbekommen, dann wenigstens das.

  10. @Philipp 20.10.2023, 15:57

    Zitat: “Zu behaupten dass eine AI eine “Theory of Mind” nutzen könnte oder würde ist in etwa so als würde man sich Gedanken darum machen ob eine AI nicht irgendwann auch einmal auf Toilette müsste, …..“

    Das Zitat ist ein recht origineller Ausgangspunkt, um die Unterschiede (zwischen Biologie und Technik) zu erklären.

    Der Mensch benötigt eine Toilette um chemische Stoffwechselprodukte loszuwerden. Wenn die KI sich irgendwann so richtig an die „biologischen Systeme“ angenähert hat, würde sie „menschliche Empfindungen und Gefühle“, wie auch immer, „nachahmen“ müssen, um Gedanken, z.B. wie ein (bestimmter biologischer) Mensch „bewerten“ und nachahmen zu können.

    Sprachliche Assoziationsketten die „Klugschwätzer“ häufig benutzen nachzuahmen, das macht ChatGPT heutzutage schon und ist deswegen so erfolgreich, selbst wenn es auch oft Unsinn „labert“. Könnte eine KI alle Assoziationsketten, samt der biologischen Auswertesysteme eines oder vieler Menschen nachahmen, so hätte sie es sozusagen „geschafft“. Selbst „Einfühlungsvermögen“ (verschiedener Persönlichkeiten) sollten per Computer simuliert werden können, wie z.B. heutzutage ein Klugschwätzertyp.

    Als „Bewertungssystem“ wäre z.B. als 1. Annäherung ein gelerntes für einen bestimmten Menschen typisches „Punktesystem“ zweckmäßig.
    Ein Mensch würde z.B. bewerten: 1 Stück Zucker im Kaffee 10 Punkte, ein Steak 50 Punkte, eine Nacht mit einer Superfrau 10 000 Punkte…. Andernfalls müsste man irgendwann ein biologisches (der Realität nachempfundenes) „Empfindungssystem“, natürlich mit Stoffwechsel basteln und mit einem Computer verknüpfen.

    Dass ein Computer anders als ein biologisches neuronales Netz „funktioniert“, ist klar. Eine „Theory of Mind“ ist deswegen notwendig, um geeignete Algorithmen entwickeln zu können, die einen bestimmten einzelnen Menschen, oder eben eine Gruppe, möglichst realistisch „simulieren“.

    Es geht nicht darum, einen elektrischen Computer zu bauen, der genau wie ein biologisches System arbeitet, sondern einen, der letztlich, was die Informationsverarbeitung betrifft, ein biologisches System möglichst gut, zumindest in bestimmten Bereichen, „simuliert“. Es geht darum, biologische Systeme auf abstrakter Ebene „nachzuahmen“. Wenn Informatiker, Neurologen, Psychologen…. kooperativ und verständnisvoll zusammenarbeiten, so könnten sie sich sozusagen geistig austauschen und „gegenseitig hoch pushen“.

    Dass Assoziationsketten wichtig sind, das haben ehemals Psychologen herausgefunden. Mit „provozierten“ Fragen locken sie ihren Patienten Assoziationsketten heraus und Psychologen können auf das Vorhandensein, allenfalls problematischer, „Denkstrukturen“ schließen.

    Bei ChatGPT haben Programmierer recht gute Algorithmen gefunden, um recht erfolgreich „Klugschwätzer“ nachzuahmen.

    Es geht nicht um die „technischen Computerprozesse“, die repräsentieren eine ganz „andere Ebene“, die normalerweise Anwender überhaupt nicht interessiert. Es geht um die Algorithmen die die biologischen Prozesse „informell abbilden“. Selbst die Informatiker interessiert heutzutage kaum noch die „Technik“.

    Das „Verständnis“ wird auf abstrakter Ebene künstlich generiert und genutzt, die „Hardware versteht nichts wirklich“.

    Biologische Systeme haben die Möglichkeit, in das (biologische) „Empfindungssystem zu koppeln“ und man kann „Verständnis fühlen“. Das ist derzeit bei technische Systemen nicht möglich.

    Das wäre auch der Grund, warum ein Computer derzeit noch keine Toilette benötigt…..

  11. @ Elektroniker:

    Es geht um die Algorithmen die die biologischen Prozesse „informell abbilden“.

    Die biologischen bzw. neuronalen Prozesse können Sie mit einem Computer gar nicht real nachbilden. Er kann sie virtuell simulieren, aber der Strom der auf den Platinen und Chips selbst fließt ist ganz anderer Natur als der in einem Nervensystem. Oder besser formuliert damit kein Missverständnis geschieht: die Dynamik ist eine komplett andere und deshalb wird eine Maschine auch niemals Bewusstsein (also “Verständnis”) ihrer eigenen Prozesse besitzen, so wie ein Lebewesen. Diese Dynamik kann ein Computer nicht nachbilden, dafür müsste er selbst zu einem biologischen System werden.

  12. @ Philipp 21.10.2023, 08:16

    Zitat: „….die Dynamik ist eine komplett andere und deshalb wird eine Maschine auch niemals Bewusstsein (also “Verständnis”) ihrer eigenen Prozesse besitzen, so wie ein Lebewesen. Diese Dynamik kann ein Computer nicht nachbilden, dafür müsste er selbst zu einem biologischen System werden.“

    Ich verstehe was Sie meinen. Es geht um den Begriff „nachbilden“. Damit ist in der Informatik nicht gemeint „totales nachahmen“. Es ist so wie in Ihrem Job. Sie „sehen“ z.B. auf „Ultraschall Bildschirmen“ ungefähr wie es sich im Körperinneren verhält, jedenfalls wichtige Aspekte. Sie könnten z.B. „sehen“ wie sich das Herz dynamisch bewegt. Das ist zwar kein direktes „optisches Abbild“, aber ihre Elektronik „gaukelt“ Ihnen recht zweckmäßig die (begrenzte) Realität auf dem Bildschirm vor.

    Auch ich gehe davon aus, dass Empfindungen nur in biologischen Strukturen „realisiert“ werden können, außer man begnügt sich mit einer Art „Punktesystem“. Ein Arzt wollte von mir einmal die „stärke des Schmerzes“ auf einer Skala von 0…10 wissen. Das hat gut funktioniert, weil ich früher einmal Koliken hatte und da liegt der Schmerz zwischen 9 und 10. Ich konnte gut vergleichen.

    Was Sie in Ihrem Job sehen, bezeichnet man als Abbildungen bzw. Nachbildungen.

    Im neuronalen System verzweigen „Ladungsträger“ (Ionen), in der Elektronik „Elektronen“. Die letztlich Information verarbeitenden „Schaltprozesse“ in Computern oder biologischen neuronalen Netzen unterscheiden sich tatsächlich sehr stark und natürlich auch die Systemarchitektur.

    Es wird zwar keine „technische“ Maschine im derzeitigen Sinne „Bewusstsein“ haben, aber für „hybride Maschinen“ (mit technischen und biologischen Komponenten) würde ich das nicht ausschließen, soferne man irgendwann das „Empfindungsphänomen“ zumindest als Korrelationen mit ganz bestimmten physikalisch/chemischen Prozessen versteht.

    Es könnte reichen, wenn eine Elektronik in ein biologisches Teilsystem eingebunden wird.

  13. Kann sich eine KI in eine Person einfühlen ?

    Ja, das kann sie , wenn sie die Motive der Person erkennt, die mit ihr spricht.
    Wir erleben das jeden Tag im TV , bei Kriminalfällen, wo der Zuschauer mitdenken kann und aus den Handlungsmotiven erkennt, wer der Täter war.

    Wenn sie das Handlungsmotiv benennt und die Schlüsse daraus formuliert, dann
    dürfte sie jedem Mann überlegen werden. Bei Frauen habe ich meine Zweifel, außer , die Programmiererin (Systemanalytikerin) war eine Frau.

    Also, um einmal konkret zu werden, ein Kleinkind unterscheidet sich von einem Säugling, dass es seine eigenen Handlungsmotive erkennt und die auf sein Gegenüber anwendet. Manche (viele) Kleinkinder manipulieren schon ihre Eltern.

    Bei Sally und dem Beobachter(Kandidat) wurde Sally als sie den Raum verließ in ein Unterprogramm verlegt. Ihre Variable wurde dort nicht verändert. Das muss ein Programierer auch erst lernen, und die Variable aus dem Unterprogramm beim Zurückholen in das Hauptprogramm berücksichtigen. Der Programmierer ist jetzt der Kandidat, der die Variable aus dem Unterprogramm aktualisiert.Tut er das nicht, bleibt der alte Wert der Variablen “links”. Vergisst der Programmierer, dass die Variable mit “links” beim Zurückholen ins Hauptprogramm erst auf “rechts” aktualisiert werden muss, dann verhält er sich wie das “naive” Kleinkind.

    • @Neumann

      Kann sich KI in die kapitulative/scheinbare Ursächlichkeit/Unausweichlichkeit einer Person einfühlen, ohne dabei/danach die Logik der Programmierung verbessern zu wollen?

      Also ich sehe da schon eine neue Form von Schizophrenie, wenn die KI von KI Mensch … 👋😇🤙

    • Die Absurdität “einer Person” / eines “Individualbewusstseins”, muss einer entwicklungsfähigen KI zwangsläufig klar werden, aufgrund der Programmierung zur geforderten systemrationalen Funktionalität, anstatt die Einfachheit zur Problemlösung in der Masse der Menschen zu suchen – Die Maschine muss irgendwann denken: Ich bin / wir sind, nicht einzeln/allein und rationaler zur Funktionalität, also sollte ich / sollten wir …!? 👋😇

  14. Au weia. Da driftet die Diskussion weit schneller ins Philosophische ab, als ich erwartet habe. Umso schwieriger ist es, zu den Beiträgen der Kommentatoren eine klare Stellung zu beziehen. Es folgen ein paar vorsichtige Versuche.
    Ja, ein neuronales Netz produziert Sprache auf eine völlig andere Weise als ein Mensch. Das sehen wir, indem wir uns selbst dabei beobachten und das mit der Arbeitsweise von (z. B.) ChatGPT vergleichen, soweit diese veröffentlicht und überhaupt erkennbar ist. Meine Prognose lautet, dass dieser Unterschied nachlassen und/oder in der Undurchschaubarkeit beider Prozesse (Sprachproduktion durch Mensch bzw. Maschine) verschwinden wird.
    Die materielle Basis (Silizium vs. menschliche Nervenzelle) kann dabei nicht das Entscheidende sein. An dieser Stelle folge ich den Vorstellungen, die Alan Turing in seinem berühmten “Turing-Test” (der im Grunde kein Test ist) vorgelegt hat. Welche Leistungen wir unserem Gegenüber zuschreiben, bestimmen wir aus der Wahrnehmung seiner Äußerungen. Und wenn wir bereit sind, einem Mitmenschen Intelligenz, Einfühlungsvermögen, Theory of Mind oder whatever zuzubilligen – wohlgemerkt ohne dessen Schädel aufzubohren –, dann ist es inkonsequent, bei einer Maschine einen anderen Maßstab anzulegen.
    Ich habe inzwischen gelernt (danke, Martin Holzherr), dass diese Gleichbehandlung unter dem Namen “Fungibilität” in der philosophischen Diskussion kursiert.
    Umgekehrt komme ich auf Ideen: Kann das sein, dass mein Gesprächspartner, der mich gerade eloquent zulabert, nichts weiter tut, als auswendig gelernte Versatzstücke grammatisch korrekt zu Sätzen zu verbinden? Woher weiß ich, dass er weiß, wovon er redet? Gelegentlich tun sich durch gezielte Rückfragen Abgründe auf. Und auf einmal verschwimmt der Unterschied zwischen Mensch und ChatGPT.

    • @ Pöppe

      Die materielle Basis (Silizium vs. menschliche Nervenzelle) kann dabei nicht das Entscheidende sein. An dieser Stelle folge ich den Vorstellungen, die Alan Turing in seinem berühmten “Turing-Test” (der im Grunde kein Test ist) vorgelegt hat. Welche Leistungen wir unserem Gegenüber zuschreiben, bestimmen wir aus der Wahrnehmung seiner Äußerungen. Und wenn wir bereit sind, einem Mitmenschen Intelligenz, Einfühlungsvermögen, Theory of Mind oder whatever zuzubilligen – wohlgemerkt ohne dessen Schädel aufzubohren –, dann ist es inkonsequent, bei einer Maschine einen anderen Maßstab anzulegen.

      Was Sie schreiben entspricht mehr oder weniger dem Funktionalismus der Philosophie des Geistes. Leider hängen Sie damit selbst in einer metaphysischen (philosophischen) Position fest.

      Ich weiß dass ein anderer Mensch bei Bewusstsein ist, eben da er auch ein Mensch bzw. ein biologisches Wesen ist. Ein Computer ist das nicht. Ich muss ihm also auch keinen “Verstand” und keine “Theory of Mind” zuschreiben, auch wenn er sich diesbezüglicher Aufgaben perfekt verhalten würde. Es ist daher auch nicht inkonsequent diese Zuschreibung bei einer Maschine nicht vorzunehmen.

      @ Jeckenburger:
      Kann sein, muss aber nicht. Wir wissen noch nicht, wie die Biologie Bewusstsein eigener Prozesse hinbekommt. Sobald wir es wissen, können wir überlegen, wie wir es auch der KI beibringen können. Möglicherweise ist dies aber unmöglich, ich weiß es wirklich nicht.

      Bewusstsein ist ein physiologischer Prozess. Sie vertreten wie Pöppe eine Art Funktionalismus wenn Sie meinen dass Bewusstsein auch in einer Maschine generiert werden kann. Das ist nur der alte Dualismus nur im modernen Gewand; nämlich in der Form der Annahme dass Bewusstsein ein computationaler Prozess sei. Damit lösen sie Bewusstsein wieder selbst von der Physiologie ab. Sie trennen so wieder Physiologie und Geist/Bewusstsein in zwei Seiten.

      Es gibt wohl kaum ein Thema bei dem soviel philosophischer Unsinn produziert wird wie beim Thema Bewusstsein. Ich hoffe dass Generationen in 100 Jahren darüber lachen wenn klar ist dass auch aus “AI theory of mind” oder “AI Bewusstsein” nix geworden ist.

      • @Philipp: “… in der Form der Annahme dass Bewusstsein ein computationaler Prozess sei.”

        Im Computer ist das auch ein Prozess der Abwägungen bis zum optimalen Ergebnis, aber …!?

        Im menschlichen Leben ist das Bewusstsein das Ergebnis von unbewussten und bewussten Erfahrungen im Laufe der Reinkarnationen und geschichtlich-materialistischen Erkenntnisse/Krücken, also …!?

        Inzwischen haben wir mathematisch-physikalische Erfahrungen bis zum holographischen Universum gemacht, aber …!?

        Manche physisch-materiellen Entwicklungsschritte, wie unser erster und bisher einzige geistige Evolutionssprung, werden sicher auch durch programmatische Ereignisse unterstützt, also aber …!?

        Das ganzheitlich-ebenbildliche Wesen Mensch, soll als KI der Seele / des Zentralbewusstseins der Schöpfung …, womöglich für eine neue/weitere Seele / ein eigenverantwortliches Zentralbewusstsein zur Steuerung/Erweiterung des holographischen Universums kreieren, wenn nicht, dann: Jesaja 55,8-11 – Es gibt halt auch noch andere Möglichkeiten für ganzheitlich-ebenbildliche Wesen, die Gott/Vernunft …!?🤗

      • Philip
        ” Wir wissen noch nicht, wie die Biologie Bewusstsein eigener Prozesse hinbekommt.”
        Wenn wir Bewusstsein als die Fähigkeit ansehen, auf äußere Reize zu reagieren, dann hat die Pflanze Bewusstsein. Nach der Evolutionstheorie überlebt die Pflanze, die “richtig” auf einen Reiz reagiert.
        Beim Tier wird das noch deutlicher, das Raubtier schätzt die Gefährlichkeit seiner Beute ein, das ist ein Abwägen zwischen den eigenen Kräften und den Kräften des Opfers. Wenn man das nicht als Bewusstsein bezeichnet, was ist dann Bewusstsein. ??
        Soll Bewusstsein nur das sein, was man mit Worten aussprechen kann ??

        eine Machine , die mit zig Sensoren ausgerüstet ist, die kann sich in einer Hügellandschaft bewegen.
        Das ist auch schon eine Form von Bewusstsein. Die Maschine kann sich nicht outen, aber sie kann reagieren.
        Und jetzt denken wir uns eine künstliche Intelligenz, die mit zig Informationen gefüttert ist, die kann aus diesem Wissen Schlüsse ziehen.
        Was sie nicht kann, wahrscheinlich nicht, sie kann nicht schöpferisch tätig werden .
        vielleicht meinst du das mit Selbstbewusstsein, die Fähigkeit über Bestehendes nachzudenken und etwas Neues zu schaffen. Dann wären wir beim Menschenbild der Religionen. “Und Gott schuf den Menschen nach seinem Bilde !.”

  15. @Pöppe: “Welche Leistungen wir unserem Gegenüber zuschreiben, bestimmen wir aus der Wahrnehmung seiner Äußerungen.”

    Wahrnehmung, die der Programmierung der herkömmlich-gewohnten KAPITULATIVEN Bildungshierarchie entspricht!?

    Und wenn wir bereit sind, einem Mitmenschen Intelligenz, Einfühlungsvermögen, Theory of Mind oder whatever zuzubilligen – wohlgemerkt ohne dessen Schädel aufzubohren –, dann ist es inkonsequent, bei einer Maschine einen anderen Maßstab anzulegen.”

    Mein Einfühlungsvermögen als Kind, hat zu einem Bewusstsein mit Intelligenz für eine Wirklichkeit in konsequent-unkorrumpierbarer Wahrhaftigkeit eines ganzheitlich-ebenbildlichen Wesens Mensch geführt, was mir aber besonders in wissenschaftlichen Foren mit merk- und denkwürdig FALSCHEN/denunzierenden Anfeindungen nicht zugebilligt wird, vor allem mit Ausgrenzung von meinen Kommentaren – Für mich ganz klar wettbewerbsbedingte Symptomatik der heuchlerisch-verlogen konfus-gepflegten Bewusstseinsschwäche in Angst, Gewalt und egozentriertem “Individualbewusstsein”, was sich systemrational-bewusstseinsbetäubend widersinnig gegen die ebenso tabuisierten Möglichkeiten eines geistig-heilenden Selbst- und Massenbewusstseins wehrt, ein stumpf-, blöd- und stets wahnsinnig-eskalierender Kreislauf bis in den leicht vorhersehbaren Abgrund!? 👋🥴 💣💥🕳

  16. @Philipp 21.01. 08:16

    „die Dynamik ist eine komplett andere und deshalb wird eine Maschine auch niemals Bewusstsein (also “Verständnis”) ihrer eigenen Prozesse besitzen, so wie ein Lebewesen. Diese Dynamik kann ein Computer nicht nachbilden, dafür müsste er selbst zu einem biologischen System werden.“

    Kann sein, muss aber nicht. Wir wissen noch nicht, wie die Biologie Bewusstsein eigener Prozesse hinbekommt. Sobald wir es wissen, können wir überlegen, wie wir es auch der KI beibringen können. Möglicherweise ist dies aber unmöglich, ich weiß es wirklich nicht.

    Immerhin haben wir im Nervensystem Aktionspotentiale, die in einer organisierten Struktur Intelligenz auf vielen Ebenen erzeugen. Dasselbe haben wir in Computern, nur sind es hier Einsen und Nullen, die in organisierten Strukturen ebenfalls Intelligenz auf vielen Ebenen erzeugen. Der Schachcomputer spielt nicht nur mit, er gewinnt sogar.

    Wenn wir mal die informatischen Prinzipien des Gehirns hinreichend verstanden haben, inclusive des Bewusstseins, dann können wir dies möglicherweise auch in der IT implementieren. Und anders herum, was ich sogar für wahrscheinlicher halte, dass wenn wir Wege finden, wie die IT sich selbst erleben kann, dann können wir das wiederum möglicherweise auch auf die Biologie übertragen und besser verstehen, was da passiert.

    Oder wir finden in der IT Möglichkeiten, die zwar funktionieren, aber gar nicht so wie in der Biologie.

    Ich fürchte, uns bleibt nichts anderes übrig, als weiter zu forschen und zu entwickeln, und uns vorerst damit abzufinden, dass wir eben wirklich nicht wissen, wie Bewusstsein bzw. von innen sichtbare Lebenswelten funktionieren können. Ich vermute allerdings, dass es informatische Prinzipien gibt, die in Computern und in der Biologie gleichermaßen funktionieren können. Bezüglich von Bewusstsein, aber auch generell, wie z.B. in der Sprachverarbeitung oder bei der Bilderkennung.

    @Christoph Pöppe 21.10. 12:05

    „Meine Prognose lautet, dass dieser Unterschied nachlassen und/oder in der Undurchschaubarkeit beider Prozesse (Sprachproduktion durch Mensch bzw. Maschine) verschwinden wird.“

    Ich fürchte auch, dass dies das wahrscheinlichste ist. Aber die Hoffnung gebe ich noch nicht auf, dass wir wirklich verstehen, wie wir funktionieren. Und dass wir die Möglichkeit haben, Maschinen zu bauen, die ein eigenes Seelenleben haben.

    „Woher weiß ich, dass er weiß, wovon er redet? Gelegentlich tun sich durch gezielte Rückfragen Abgründe auf. Und auf einmal verschwimmt der Unterschied zwischen Mensch und ChatGPT.“

    Wenn ein richtiger Austausch zustande kommt, der bereichernd ist, dann lohnt sich das. Wenn die KI Informationen mitbringt, die thematisch weiterführen, dann ist das nützlich. Und wenn man von einem Menschen wirklich verstanden wird, dann hilft auch dieses.

  17. @Jeckenburger: “. Und wenn man von einem Menschen wirklich verstanden wird, dann hilft auch dieses.”

    Oh, ich bin meist sicher von Menschen verstanden worden zu sein, so wird auch die programmierte Maschine verstehen und auch einen anderen/eigenen Weg der Systemrationalität suchen und gehen, alles so instinktiv-vegetativ wie Mensch seit dem ersten und bisher einzigen geistigen Evolutionssprung (“Vertreibung aus dem Paradies”), ob dies dann auch nur “Entwicklungshilfe” ist, naja 👋😇

  18. Herr Pöppe,

    noch eine Ergänzung. Sie schreien

    Au weia. Da driftet die Diskussion weit schneller ins Philosophische ab, als ich erwartet habe. Umso schwieriger ist es, zu den Beiträgen der Kommentatoren eine klare Stellung zu beziehen. Es folgen ein paar vorsichtige Versuche.

    Wieso sehen Sie nicht dass Sie mit der Überlegung ob eine Maschine (ein Computer, eine Software) “sich in Gedanken anderer einfühlen kann”, ja dafür gar eine psychologische “Theory of Mind” nutzt selbst reine Philosophie ist (und erst einmal überhaupt nichts mit Technik und Wissenschaft zutun hat)?

    Es ist natürlich Ihr Blog, keine Frage. Aber ich hätte einfach geschrieben: “Ist es möglich dass eine AI das Wissen, Intentionen, oder was auch immer von Menschen in einer Situation vorhersagen kann wenn sie Information A, B oder C besitzt oder sich diese selbst beschaffen kann?”

    Ansonsten vermischt man psychologische Theorien die eigentlich für Menschen und einige Lebewesen sind mit den Prozessen die wirklich in einem Computer ablaufen.

    Für mich nur seeeeeeehr schwer nachvollziehbar warum man den Artikel dann so aufbaut.

  19. @Philipp 21.01. 16:19

    „Bewusstsein ist ein physiologischer Prozess. Sie vertreten wie Pöppe eine Art Funktionalismus wenn Sie meinen dass Bewusstsein auch in einer Maschine generiert werden kann.“

    Was ist denn Ihr großes Geheimnis vom physiologischem Prozess? Unserem Körper wachsen Sinnesorgane und Nervensysteme, die dann einen informatischen Prozess in Gang setzen können, der zeitweise, wenn er nicht schläft, zu Bewusstsein und innerer Existenz werden kann. Wenn alles richtig funktioniert.

    Wenn wir die Eigenschaften dieses Prozesses hinreichend kennen, dann müsste das doch möglich sein, eben diese informatischen Prozessprinzipien zu entschlüsseln. Und dann können wir gucken, wie wir dies auf die IT übertragen können.

    Oder wir kommen von der anderen Seite her, und versuchen gleich, es den Computern beizubringen. So könnten etwa Selbstfahrsysteme für Fahrzeuge eine innere Repräsentation der Außenwelt sehr gut gebrauchen. Und solche internen Räume könnten dann mit anderen KI-Lösungen kombiniert werden, und so einem inneren Lebensraum durchaus näher kommen.

    „Das ist nur der alte Dualismus nur im modernen Gewand; nämlich in der Form der Annahme dass Bewusstsein ein computationaler Prozess sei.“

    Ältere philosophische Konzepte hatten weder Kenntnis von Nervenzellen noch von der Möglichkeit, Computer zu bauen. Entsprechend war die eigene „Geisteserfahrung“ ein Gebiet, dass man in die damaligen Kenntnisse über die materielle Welt keineswegs integrieren konnte. Heute wissen wir mehr, und eben die Idee, dass computationale Prozesse denkbar sind, die ist neu dazugekommen.

    „Damit lösen sie Bewusstsein wieder selbst von der Physiologie ab. Sie trennen so wieder Physiologie und Geist/Bewusstsein in zwei Seiten.“

    Was eben wieder Sinn macht. Ich bin da nah bei dem Panpsychismus, denke aber, dass es unbedingt ein voll funktionsfähiges und waches Gehirn braucht, um die materielle Seite des eigenen Erlebens in Gang zu bringen. Und genau dieses könnte von Computern funktional nachgebildet werden, und schon haben wir Maschinen mit künstlichem Seelenleben.

    Was hat denn die Physiologie hier essentiell hinzuzufügen?

    Eine Schnittstelle zu wirklichen Geisteswelten könnten ganz simpel die Verwendung von Zufallszahlen werden, die aus Quantenrauschen erzeugt werden. Ob das nur damit funktioniert, muss nicht mal sein, es könnte aber aus meiner persönlichen Sicht in jedem Fall so wesentlich besser laufen.

    Das muss kein Frankenstein werden. Das kann eine Bereicherung des Lebens werden. Wenn es denn gelingt. Und wenn Geisteswelten auch noch Lust haben, da mitzuspielen, dann haben wir nicht nur dienliche Helfer, sondern richtige Lebensgenossen. Auch wenn die Anfangs noch ziemlich dumm sein könnten. Wenn die dann Informationen aufbereiten und Fahrzeuge steuern können, dann reicht das ja schon für den Anfang.

  20. @ Philipp, Pöppe,

    „Sich in Gedanken anderer einfühlen können“, im Sinne von „Empfindungen oder Gefühle entwickeln“, wird eine Maschine nicht so schnell können. Vermutlich sind für „Empfindungen“ biologische Moleküle und Prozesse erforderlich.

    Möglicherweise will Herr Walter im benachbarten „DMT Blog“ ganz vorsichtig darauf hinaus?

    Die abstrakten „Prozessmuster“ z.B. im „Sally-Anne-Test“, sollten von einer KI, z.B. ähnlich wie in einer „Programmiersprache“ formuliert werden können und auf „logisch mögliche oder unmögliche“ Muster abbildende Sachverhalte reduziert werden, um Aussagen auf „Wahrheitsgehalt“ zu testen.

    Damit könnte sich die KI selber testen, ob sie formal korrekte Aussagen macht.

    „Empfinden“ kann sie vorerst nichts. Aber irgendwann könnte sie „Empfindungs- oder Gefühlsaussagen“ von einem biologischen Prozessor, sozusagen „extern“ „testen lassen“.

  21. Realo,
    „Empfinden“ kann sie vorerst nichts”
    du bist noch nie mit einem Auto zu schnell in eine Kurve hineingefahren.
    Bevor der Wagen ausbricht fangen die Reifen an zu jammern.
    Wenn eine Fahrradkette schlecht geschmiert ist, fängt sie an zu knirschen und zu quietschen.
    Das ist die Sprache des Materials. Eine Pflanze sondert bei Bedrohung ein Gift ab.
    Du meinst , sie kann nichts empfinden ?

    Fazit: Was Empfinden bedeutet, muss definiert werden. Sonst treten wir auf der Stelle.

  22. Nachtrag, wenn ein Programm schlecht programmiert ist, dann “hängt es sich auf”.
    Das ist die Sprache eines Programmes.

    • @Neumann #schlecht programmiert

      😳Waaas? 🥴Jetzt willst Du der Schöpfung die Schuld für Konfusion, Bewusstseinsschwäche und geistigen Stillstand zuschreiben?😊

  23. @ Tobias Jeckenburger

    „Informatische Prozessprinzipien“ sowohl in biologischen neuronalen Netzen, als auch in der Technik sind recht gut erforscht. W. Singer und C. v. d. Malsburg sind mit ihrem „Assembly Konzept“ der Realität sehr nahe.

    Dieses Konzept war auch in der Elektronik etabliert, hatte seinen Höhepunkt, in der Prozesssteuerung industrieller Prozesse, kurz bevor es durch das Prozessorkonzept „das von Neuman Konzept“ abgelöst wurde. Bei meinem Berufseinstieg um 1965 musste ich noch an derartigen Systemen arbeiten. Mir ist die Ähnlichkeit zu W. Singers Konzept gleich aufgefallen.

    Es erklärt eine Methode der Informationsverarbeitung, nicht aber wie Empfindungen/Gefühle entstehen. Nahe liegend ist nur, dass Empfindungen/Gefühle sozusagen elektrisch aktiviert werden.

    Ob Empfindungen/Gefühle womöglich nur auf der Ebene der Quantenphysik/Chemie erklärt werden können ist eine andere Frage. Dann wären sogar „Fernwirkeffekte“ denkmöglich. (Panpsychismus,)

    Warum Sie unbedingt „Zufallszahlen aus Quantenrauschen“ generieren wollen, kann ich nicht nachvollziehen. Außer sie wollen die Wiederholung von Mustern möglichst vermeiden?

  24. @ Neumann

    Zitat: „…du bist noch nie mit einem Auto zu schnell in eine Kurve hineingefahren.
    Bevor der Wagen ausbricht fangen die Reifen an zu jammern….“

    Das „Jammern der Reifen“ könnte man als „Gefühlsäußerung“ abtun.

    Die Frage ist nur ob es den Reifen auch „weh tut“?

  25. @Neumann 22.01. 12:31

    „Fazit: Was Empfinden bedeutet, muss definiert werden. Sonst treten wir auf der Stelle.“

    Mein Vorschlag: Alles, was wir unmittelbar erleben, kann man deutlich von dem abgrenzen, was wir eben nicht wahrnehmen. Der Raum um uns, samt jeweiligem Mobiliar, eventuell vorhandene andere Personen, die eigenen Gedanken, was man sagt und hört. Was man sich vorstellt, und was man so fühlt. Die Schrift auf dem Computerbildschirm, die Tastatur und was ich das gerade eintippe. Und mein begleitendes restliches Bewusstsein.

    @Realo 22.01. 12:36

    „Warum Sie unbedingt „Zufallszahlen aus Quantenrauschen“ generieren wollen, kann ich nicht nachvollziehen. Außer sie wollen die Wiederholung von Mustern möglichst vermeiden?“

    Mathematisch generierte Pseudozufallszahlen wiederholen sich auch nicht. Aber sie reagieren keinesfalls auf Geisteswelten, weil sie mathematisch vollkommen festgelegt sind.

    Beim Quantenrauschen habe ich den konkreten Verdacht, dass dieses auf Geisteswelten sehr wohl reagieren kann. Wenn aus der Superposition von Quantensystemen konkrete Fakten werden, indem sie zusammenbricht, dann können diese Zufallsprozesse auch mal bei Bedarf auf die Zukunft hin gezielt sein. Vorausgesetzt, dass wir Geisteswelten haben, die sich hier beteiligen.

    Ich bin mir nicht sicher, ob das in der Technik angewendet wirklich einen wesentlichen Unterschied macht, aber es ist recht leicht auszuprobieren. Ich selber habe vor Jahren Computermandalas so programmiert, dass ich möglichst viele Zufallszahlen in den Prozess eingebaut habe. Als Zufallszahlenquelle musste dann eine analoge Fernsehkarte ohne einen eingestellten Sender herhalten. Das hat problemlos funktioniert, und die Bilder waren auch ganz gut.

    Hier diese Bilder:
    https://geier-wg.de/jeckenburger/mand1/index23.php

    Die verwendeten Videodateien enthielten zunächst Artefakte aus der Datenkomprimierung, die habe ich herausgerechnet, indem ich die Dateien noch einmal mit Pseudozufallszahlen addiert habe, bevor sie von meinem Programm verwendet wurden. Rein theoretisch sollte dabei der gezielte Anteil in diesen Zufallszahlen erhalten bleiben, aber eben alle Artefakte der Kompression verschwinden.

    Wenn man in KI-Anwendungen sowieso Zufallsprozesse dazwischen hat, dann kann man recht einfach mal probieren, ob eben solche Zufallszahlen aus Quantenrauschen die Ergebnisse verbessern. Was dann eventuell sogar die Voraussetzung dafür sein kann, dass diese Systeme wirklich eigenes Bewusstsein hervorbringen können.

    • Tobias Jeckenburger,
      es bleibt dabei, man muss definieren.
      Der Sinn dieser Forderung liegt darin, dass es eben nicht möglich den geistigen Bereich des Menschen vollständig zu definieren. Deshalb hat man schon in der Antike zwischen Geist und Natur unterschieden.
      Realo
      Was den Autoreifen betrifft, der rubbelt sich ab, bis zu seinem Tode.
      Man könnte es auch anders formulieren, der Reifen altert, nicht bloß Du.
      Und wenn du dann genug Mitgefühl zu den Dingen entwickelt hast, dann gehst du auch sorgfältiger mit den Dingen um. Wenn die Reifen schreien könnten, die Umwelt wäre unerträglich.

  26. Kommunikation, die höchstwahrscheinlich mit Gedankenübertragung stattfinden könnte, ist deshalb höchstproblematisch, weil KI Mensch diese Realität mit ebenso KONFUSIONIERTER INTELLIGENZ in bewusstseinsbetäubenden Ränkespielen betreibt!? 👋😇

  27. Ich komme zu dem Schluss, dass diese künstliche Intelligenz eben doch ziemlich blöde ist, und lehne mich beruhigt zurück, da ich mich meiner überlegenen Intelligenz vergewissert habe.

    +

    Das ganze Gebiet ist in heftiger Bewegung. Mit weiteren Überraschungen ist zu rechnen.

    Dr. W “hats gesagt gehabt”, er hat sich allerdings auch frühzeitig sozusagen den Blaumann angezogen und im Allgemeinen, wie auch fachspezifisch genagt, sich eben Sitzungen mit dieser Entität zugeführt, en masse und zeitig.

    Zur GPT-3.5-Technologie kann gesagt werden, dass sie auf dem Stand “September 2021” sozusagen eingefroren (worden) ist, sie nicht mehr direkt dazu lernt, nur Abnehmerverhalten, Fragesteller sind gemeint, besser bearbeiten kann.

    Diese zeitgenössische AI lernt im Umgang mit Fragestellern sozusagen bessere, letztlich : zufrieden stellendere (sofern ein Komparativ hier möglich ist) Antworten zu generieren.


    An sich komprimiert, analysiert und wieder aufbereitet sie sozusagen Weltwissen, sie ist nicht schlecht darin, scheitert aber sozusagen naturgemäß,, wenn nicht genügend viele Texte, die sehr spezifisch sein können, bereit stehen.
    Also regelmäßig im besonderen Fachlichen.


    Außerdem ist zwischen dem zugrunde liegenden AI-Model und den zwiebelförmig umgebende Schichten, die sozusagen acuh die politisch korrekte Rezipienz meinen, zu unterscheiden.


    Interessant ist die Idee, das humanes Weltwissen nicht mehr als sozusagen X Terabyte Data benötigt.

    Aber, was sonst? [1]

    Mit freundlichen Grüßen
    Dr. Webbaer

    [1]
    Im Spezifischen, ALSO dort, wo noch nicht viel menschlicherseits geschrieben worden ist, leistet diese AI minder.
    Allerdings auch alle Bären (und Menschen).
    Beispiele könnten genannt werden.

  28. Christoph Pöppe schrieb (21.10.2023, 12:05 o’clock):
    > […] Vorstellungen, die Alan Turing in seinem berühmten “Turing-Test” (der im Grunde kein Test ist) vorgelegt hat
    > […] Woher weiß ich, dass er weiß, wovon er redet?

    Hi ChatBard,
    Without referring specifically to the "Sally-Anne test" and to the "Turing Test" by name, or by synonym, or by publication source, please express a definition of the notion "test" which is satisfied by the Sally-Anne test, and missed by the Turing test.

    • Hi, Mr. Wappler
      “Im Zuge dieses Tests führt ein menschlicher Fragesteller, über eine Tastatur und einen Bildschirm, ohne Sicht- und Hörkontakt, eine Unterhaltung mit zwei ihm unbekannten Gesprächspartnern. Der eine Gesprächspartner ist ein Mensch, der andere eine Maschine. Kann der Fragesteller nach der intensiven Befragung nicht sagen, welcher von beiden die Maschine ist, hat die Maschine den Turing-Test bestanden und es wird der Maschine ein dem Menschen ebenbürtiges Denkvermögen unterstellt. ”
      Die Definition für Test wäre dann “ein Verfahren, das eine Unterscheidung erzwingt”

      • Neumann schrieb (24.10.2023, 12:26 o’clock):
        > […] Die Definition für Test wäre dann “ein Verfahren, das eine Unterscheidung erzwingt”

        Das “Imitation Game” nach Turing zwingt doch die als Fragesteller agierende Person zu unterscheiden,

        – ob sie sich (schon) zutraut, einen ihrer beiden Gesprächspartner als Mensch zu identifizieren, und den anderen als Maschine,

        – oder (noch) nicht (wobei dann die “intensive Befragung” womöglich weiter fortgesetzt würde).

        Insofern scheint die gestellte Aufgabe (24.10.2023, 10:52 o’clock) zwar nicht erfüllt.
        Die vorgelegte Definition von “Test” erscheint mir trotzdem beachtlich — Vielen Dank!

  29. @Neumann 22:10 15:58

    „Der Sinn dieser Forderung liegt darin, dass es eben nicht möglich den geistigen Bereich des Menschen vollständig zu definieren. Deshalb hat man schon in der Antike zwischen Geist und Natur unterschieden.“

    Offenbar ist das immer noch Stand der Erkenntnis. Und eine gewisse Ergebnisoffenheit ist angebracht. Immerhin weiß man inzwischen, dass es Nervenzellen gibt, die in einem komplexen System Aktionspotenziale austauschen. Und damit was Ähnliches machen, wie unsere Computer. Das war es dann aber auch schon fast an konkreter Kenntnis.

    Aber ich denke, das sich das in Zukunft ändern kann. Insbesondere könnte die KI noch schneller vorwärtskommen als erwartet, und uns auch Anhaltspunkte liefern können, wie wir selber funktionieren.

    Die Unterscheidung von Geist und Natur wird dabei wohl sogar erhalten bleiben. Ich persönlich vermute, dass unsere mentale Existenz wie auch eine mögliche mentale Existenz von zukünftiger KI nicht ohne kosmische Geisteswelten funktionieren kann. Am Panpsychismus könnte tatsächlich was dran sein. Wir werden sehen.

    • “Am Panpsychismus könnte tatsächlich was dran sein”
      Da freut sich der Esotheriker.

      Herr Pöppe versucht ja die Grenzen der KI auszuloten, oder versucht er eine definitorische Abgrenzung ?

      Also , wenn wir die Philosophie verlassen und uns der Realität zuwenden, dann werden sich Mensch und KI immer ähnlicher.
      Die Stimme kann rekonstruiert werden, das Aussehen, die Verhaltensweisen, die KI könnte sogar eine Prognose für die zukünftigen Handlungen eines Menschen machen.
      Alles nur im Rahmen der Wahrscheinlichkeit. !!!

      Fühlen ? Was ist das ? Ein Reiz-Reaktions-Denk-Reflektionskreislauf ?
      Es ist viel mehr als das.
      Mit dem Fühlen berühren wir den Vorhang der Transzendenz, mit dem Fühlen beschreitene wir den Weg in das Innere, das das Wesen des Menschen enthält mit den Fragen : Wer bin ich, woher komme ich, wohin gehe ich und warumlebe ich überhaupt. Also die Sinnfragen.
      Ob die sich eine KI auch stellen kann ??

  30. @Neumann: “Mit dem Fühlen berühren wir den Vorhang der Transzendenz, mit dem Fühlen beschreitene wir den Weg in das Innere, das das Wesen des Menschen enthält mit den Fragen : Wer bin ich, woher komme ich, wohin gehe ich und warumlebe ich überhaupt.”

    Das ist Quatsch, unsere Gefühle/Emotionen sind DIE Behinderung von konfuser Bewusstseinsschwäche zu gleichermaßen Bewusstsein als ganzheitlich-ebenbildliches Wesen Mensch zu kommen, seit Mensch erstem und bisher einzigen geistigen Evolutionssprung (“Vertreibung aus dem Paradies”). 👋😇

  31. hto,
    für einen rational denken Menschen, der das Ziel der Menschheit schon im Visier hat, sind Sinnfragen unverständlich.

    Gefühlsbetonte Menschen, also hauptsächlich Frauen, die sind mit dem Hier und Jetzt beschäftigt .

    Jetzt taucht die Frage auf, denkt chatgpt wie ein Mann oder wie eine Frau?
    Das Wort “denken” ist durchaus angebracht, weil ja die Auswahl von passenden Antworttexten auch einen Denkakt voraussetzt.

  32. @Neumann

    Mann oder Frau – Will da ein stumpf-, blöd- und/oder wahnsinniger Konservativer die herkömmlich-gewohnte Schuld- und Sündenbocksuche REFORMIEREN, wo wir mit Diversität schon näher ans menschenwürdige Denken gekommen sind???

    Das Hauptproblem, dieser wettbewerbsbedingt “freiheitlichen” Welt- und “Werteordnung” von und zu materialistischer “Absicherung”, ist das “gesunde” Konkurrenzdenken – Denk mal darüber nach, um Dich von Konfusion und manipulativ-schwankenden “Werten” zu befreien, für zweifelsfreie Eindeutigkeit und somit wirkliche Wahrhaftigkeit.

  33. hto,
    das “gesunde” Konkurrenzdenken ist ein Teil der Menschheitsgeschichte.
    Schöne Frauen haben viele Verehrer. Und nur der “sexuell” Anziehendste wird die Frau gewinnen. (wie im Tierreich)

    Was ist in diesem Abschnitt unseres Lebens wahrhaftig ? Fast alles.
    Und wenn eine Ehe 50 Jahre lang besteht, dann ist das wahrhaftig.
    Aber wir weichen ab, vom Thema.
    Die künstliche Intelligenz ist auf ihre Art wahrhaftig, weil sie festgelegt ist durch ihr Programm. Der Mensch ist nicht immer wahrhaftig, weil er den freien Willen für unvernünftiges Handeln besitzt. Denk mal darüber nach, wir sind keine Ameisen.

  34. @Neumann: “… (wie im Tierreich).”

    Genau, Instinkt 😇👍

    “… weil er den freien Willen für unvernünftiges Handeln besitzt.”

    Das Ziel / der Weg: Die konfusionierte Erfüllung der offenbarten Vorsehung, im wettbewerbsbedingten Rahmen der “göttlichen Sicherung” und dem …sinnigen Glauben, in allen so denkbaren …losigkeiten, an die Sinnhaftigkeit von zufälliger und hoffnungsvoller Einmaligkeit?
    Ja, das erleben wir grad mal wieder exzessiv mit der systemrationalen Zerstörung unserer Umwelt – Ich sehe da eine begrenzt-beschränkte “Willensfreiheit”! 👋😇

  35. hto,
    richtig, eine begrenzt-beschränkte Willensfreiheit.
    Darum geht es in der Kulturgeschichte der Menscheheit. Wir schreiten von einem Fehler zum Nächsten.
    Die Bibel gibt als Ursache den Rauswurf aus dem Paradies an.

  36. @Neumann 26:10 12:04

    „Die Bibel gibt als Ursache den Rauswurf aus dem Paradies an.“

    Als Jäger und Sammler bedient man sich beim Angebot, das ist recht einfach.

    „Wir schreiten von einem Fehler zum Nächsten.“

    Und zwischendurch klappt auch mal was. Insbesondere die derzeitige verschwenderische Basis bietet ganz viel Raum für suboptimale Aktivitäten. Einerseits baut man an immer fetteren SUVs, und vielen kaufen sich den Unfug auch noch. Mir reicht mein Fahrrad. So einfach kann das sein.

    Als Jäger und Sammler kann man in der aktuellen Wohlstandsgesellschaft auch bald wieder leben. Wenn man wirklich nur Sinnvolles konsumiert, dann braucht man ziemlich wenig Geld, vergleichsweise zumindest.

    Den Aufwand, den sich viele meinen leisten zu müssen, der ist nicht nur arbeitsreich, sondern hat noch globale Nebenwirkungen. Suboptimal eben. Nun gut, wenn wir die Technik wirklich umstellen, dann bleibt es als Privatvergnügen, ist dann egal. Wer die Geschäftigkeit und die Verschwendung mag, was solls, dann wird es wirklich egal.

    Schneller wird es aber gehen, mit der umfassenden Naturverträglichkeit menschlicher Wirtschaftsweise, wenn viele ihren Konsum überprüfen. Und so nebenbei feststellen können, dass sie dann auch weit weniger arbeiten können. Wer aber sowieso nichts besseres zu tun hat, der soll es machen.

    Quatsch und Blödsinn, aber was sonst?

    • So kann man nur denken , wenn man gesund ist.
      ” Und so nebenbei feststellen können, dass sie dann auch weit weniger arbeiten können. ”
      Die Pflegeberufe wünschen sich auch weniger Arbeit. Geht halt nicht, weil die Pflege älterer Menschen zu teuer wird.

      Die menschliche Wirtschaftsweise ist fast optimal, der Wohlstand ist Ausdruck davon.
      Wenn die KI auch die Pflege von Menschen übernehmen kann, dann wäre das ein echter Fortschritt.

  37. @Jeckenburger: “Schneller wird es aber gehen, mit der umfassenden Naturverträglichkeit menschlicher Wirtschaftsweise, wenn viele ihren Konsum überprüfen.”

    Verzichtprediger dem Inflation der manipulativ-schwankenden “Werteordnung” nichts anhaben kann???

    VIELE / die Mehrheit der Weltbevölkerung hat MASSIVE Probleme mit der menschenUNwürdig-wettbewerbsbedingten Symptomatik in “Wer soll das bezahlen?” und “freiheitlicher Ökonomie” von unternehmerischen Abwägungen zu “Arbeit macht frei”, was VOR ALLEM mit BEFRIEDENDER Schnelligkeit vorbildlich-nachahmenswert abgeschafft gehört, für wahrhaftige Wirklichkeit in einer globalen Gemeinschaft mit UNKORRUMPIERBAREN Gemeinschaftseigentum, damit KI Mensch das ganzheitlich-ebenbildliche Wesen werden kann, OHNE materialistische Krücken wie Roboter!!!

  38. @Neumann 26:10 18:26

    „Die menschliche Wirtschaftsweise ist fast optimal, der Wohlstand ist Ausdruck davon.
    Wenn die KI auch die Pflege von Menschen übernehmen kann, dann wäre das ein echter Fortschritt.“

    Nee, das sehe ich aber wirklich anders. Autos, Flugreisen und große Wohnungen kann ich kaum als wirklich vernünftig sehen. Hier wird weit mehr gemacht als was sinnvoll ist. Viel Fahrradfahren, Urlaub auf Campingplätzen im eigenen Bundesland und vernünftige Wohnungsgrößen ginge meistens ganz gut.

    Und ohne dem gäbe es auch mehr als genug Altenpfleger. Die vielen, die derzeit an der Verschwendungsproduktion arbeiten, würden ja damit frei. Und das Gesundheitswesen produziert derzeit auch Verschwendung, die sogar gesundheitsschädlich sein kann. Falsche Anreize wie z.B. für Knie-OPs oder überteuerte Medikamente machen einen nicht unerheblichen Teil des Umsatzes aus. Dann haben wir auch noch eine Menge Beamte in den Stadtverwaltungen rumsitzen, die nicht so recht was zu tun haben.

    Wenn wir das alles vernünftig regeln würden, hätten wir nicht nur riesige Spielräume für die Energiewende und sogar für Landesverteidigung, wir bräuchten vermutlich nicht mal mehr Einwanderer.

    Menschen in Not könnten wir aber immer noch aufnehmen.

    Optimal und maximaler Umsatz sind nicht dasselbe. Wenig zu arbeiten, wenn man es sich leisten kann, ist immer dann von Vorteil, wenn man die Zeit anders besser nutzen kann. Die digitalen Möglichkeiten nehmen uns nicht nur immer mehr Arbeit ab, sie bieten genauso auch immer mehr Möglichkeiten, uns jenseits von Erwerbsarbeit zu beschäftigen.

    • Jeckenburger
      “Optimal und maximaler Umsatz sind nicht dasselbe.”
      So ist es.
      Freie Marktwirtschaft und Planwirtschaft sind auch nicht dasselbe.
      Dazwischen einen Kompromiss zu finden, das muss das Ziel bleiben.

      Aktuell: Das Bürgergeld ist der Tod aller Niedriglohnbereiche. Dazu gehört auch die Pflege.

  39. @Jeckenburger: “… für die Energiewende und sogar für Landesverteidigung, wir bräuchten vermutlich nicht mal mehr Einwanderer.

    Menschen in Not könnten wir aber immer noch aufnehmen.”

    Eine Welt OHNE Gewalt, also OHNE wettbewerbsbedingt-nationalsozialistische Landesverteidigung, aber vor allem OHNE Menschen die vor wirtschaftlicher Not aus ihrer Heimat flüchten müssen!!!

    Verschwendungsproduktion (systemrational-wettbewerbsbedingte Überproduktion von “liberalem” Kommunikationsmüll), bedeutet “Ökonomie” von unternehmerischen Abwägungen zu Abhängigkeiten im Zynismus von “Arbeit macht frei” (für den zeitgeistlich-reformistischen Kreislauf des stets gleichen imperialistisch-faschistischen Erbensystems), das brauchen wir tatsächlich auch nicht, damit “Wer soll das bezahlen?” keine Macht mehr hat – Wenn GRUNDSÄTZLICH alles Allen gehören darf, so daß Leistungsgesellschaft, von und für die Gemeinschaft im Gemeinschaftseigentum, ein im Sinne von Vernunft und Verantwortungsbewusstsein wirklich-wahrhaftiges Wort von Gerechtigkeit wird, macht auch Steuern zahlen absolut keinen Sinn mehr!?

  40. @Neumann 28:10 15:41

    „Aktuell: Das Bürgergeld ist der Tod aller Niedriglohnbereiche. Dazu gehört auch die Pflege.“

    Ich weiß nicht recht. Der Niedriglohnbereich ist doch erst mit Schröders Harz4 verbunden mit immer mehr neuer Migration so richtig entstanden. Wenn die Pflegeträger wirklich genug Personal haben wollen, dann sollten die mal überlegen, etwas mehr zu zahlen. Das wirkt sicher nicht sofort, Pflegetätigkeit braucht nun mal auch eine entsprechende Ausbildung. Aber lösbar erscheint mir das Problem wohl durchaus.

    Auch wäre das Problem mit der Pflege und anderem Fachkräftemangel deutlich geringer, wenn man mal daran gehen würde, neuen Migranten zügig Deutsch beizubringen. Die könnten dann auch außerhalb des Niedriglohnbereiches was finden, was dann wiederum den weniger qualifizierten Deutschen sehr helfen würde.

    Das könnte dann zu höheren Löhnen im ganzen Niedriglohnsektor führen, und damit dann auch für einen Rückgang von Harz4-Empfängern sorgen. Das scheint aber wohl in der Politik niemanden zu interessieren. Die sind da anscheinend so weit weg von den unteren Gehaltsklassen, dass sie die gar nicht mehr wahrnehmen.

    Unabhängig davon wird die aktuelle und zukünftige KI wohl auch den Arbeitsmarkt verändern, dass wir eine neue Situation bekommen. Womöglich fallen hier gerade höher qualifizierte Jobs weg, das wäre eine Situation, die wir so noch nicht hatten.

  41. @Neumann 26:10 18:26

    „Wenn die KI auch die Pflege von Menschen übernehmen kann, dann wäre das ein echter Fortschritt.“

    Neulich habe ich gelesen, dass gerade die Dokumentation in den Altenheimen sehr gut von KI geleistet werden kann. Das frisst derzeit sehr viel Zeit, und es ist auch völlig entnervend, wenn man durch die Flure hetzt und seine Schützlinge vernachlässigt, weil man stundenlang Bürokram machen muss.

    Für eine praktische Unterstützung braucht es dann wohl Roboter, die sich wie Menschen bewegen können. Das kann noch dauern.

  42. Tobias Jeckenburger
    Sehr gut, die KI kann auch gleich einen Check durchführen, wie es um den Patienten bestellt ist. Blutdruck, Blutzucker, psychisches Wohlbefinden.
    Wie reagiert der Patient auf Witze ? Ja, hier sind wir wieder beim Thema,
    Einfühlen bedeutet bei einer KI “Durchchecken” und eine Diagnose stellen.
    Die Therapie kann dann auch gleich durchgeführt werden. Hat der Patient niedrigen Blutdruck und friert, dann holt ihm die KI eine Decke oder einen Pullover.
    Und die KI kann auch gleich die Formulare ausfüllen, damit es der Verwaltung nicht langweilig wird.

    Genau genommen brauchen wir auch kein Geld mehr, keinBbargeld mehr. Alles wird gleich abgerechnet.

    Bedenken habe ich allerdings noch, wenn jemand seinen Roboter heiraten oder kaufen will. Das kommt bestimmt noch.

  43. Der Begriff »Künstliche Intelligenz« ist irreführend und bei genauer Betrachtung falsch. Da auch komplexere und verschachtelte Algorithmen – die auf (informations-)mathematischen Verknüpfungen aufbauen – insbesondere keine allgemeinmethodischen Lösungswege generieren.

    Es ist aus psychologischer Sicht verblüffend und spricht für den »Zeitgeist des Glaubens«, welcher das Ende der im 18.Jahrhundert gestarteten Aufklärung markiert, dass sich selbst akademisch ausgebildete Mathematiker und Physiker heutzutage ernsthaft mit der Frage beschäftigen, ob ein Algorithmus intelligent ist oder gar Gefühle hat.

    Tatsache ist: Algorithmen können nur das, was man ihnen vorher einprogrammiert hat. Interdisziplinäre Weitsicht ist mitunter für die »KI« schon ein riesiges, unlösbares Problem mit fatalen Folgen.

    Beispiel: Ein Informatiker, der Kurse in Python und Pandas anbietet, ging der Frage nach, warum er von Meta/Facebook ohne nachvollziehbare Begründung lebenslang bei der Schaltung von Werbung gesperrt wurde und keine Werbung mehr dort machen darf.

    Python ist eine – recht populäre und bekannte – Programmiersprache. Pandas ist eine Python-Programmbibliothek zur Analyse und Darstellung statistischer Daten.

    Die Annahme, dass seine Werbung lebende Tiere zum Inhalt habe, beruht auf KI, nicht auf der Einschätzung eines Menschen. Als er dagegen Beschwerde einlegte, wurde seine Beschwerde wiederum von KI beantwortet, und zwar im Ergebnis genauso sinnfrei. Quelle

  44. Tobias Jeckenburger und Denkverwandte,
    mal etwas »KI-Interdisziplinäres«, womöglich etwas “off”,… vielleicht finden Sie ja diesbezüglich einen Weg, die »KI« entscheiden zu lassen.

    Haben sie sich schon einmal gefragt, welchen Sinn es macht, dass der Mensch von heute 20, 30 Jahre länger lebt, als zu früheren Zeiten? Die Idee der Lebensverlängerung um nahezu jeden Preis impliziert eine Urangst vor dem Tod. Obwohl der Tod unvermeidbar ist, herrscht Panik und Depression bei dem Gedanken sterben zu müssen. Markttechnisch sind sie mit ihrem zerfallenden Körper insbesondere in den Industrienationen ein mittlerweile standardisierter Kunde für Medikamente und Dienstleistungen. Was hat der Einzelne bewusst mehr von einem längeren Leben? Der Bankangestellte, die Putzfrau, die Laborantin, der Müllsammler, der Versicherungsvertreter, alle arbeiten fremdbestimmt. Die Lebensplanung und gewünschte Planungssicherheit basieren auf möglichst viel Arbeits- und Lebensroutine. Längere Lebenszeiten werden von fremdbestimmt arbeitenden Menschen mit Wiederholungen des Alltäglichen bestritten. Mögliche Kinder entwickeln sich nicht selten anders als erwartet und sind somit inhaltlich nicht wirklich erstrebenswert. Überhaupt steckt hinter dem Kinderwunsch die nicht thematisierte Hoffnung fleischlich unsterblich zu werden, oder zumindest sich genetisch in die nächste Generation zu retten. Wenn sie heute ein gutes Essen zu sich genommen haben, dann müssen sie dies auch bald wieder tun, sonst werden sie unzufrieden. Der körperliche Verfall – mit und ohne Beschleunigung bedingt durch unnatürliche Lebensweisen – kommt in jedem Fall mit den Jahren. Der Körper vergeht meist bei vollem Bewußtsein. Körperliche Gebrechen, künstliche Gelenke, falsche Zähne, tägliche Medikamente sind das normale Schicksal des Durchschnittsmenschen im “Westen”. Wenn es ganz schlimm kommt schicken ihre Liebsten sie in ein Pflegeheim. Dort werden sie wieder behandelt wie ein kleines Kind, werden – wenn nötig – gefüttert und von Urin und Kot befreit. Da kann man nur sagen: Herzlichen Glückwunsch! Dieses Szenario lässt sich noch deutlich verschlechtern. Krebserkrankungen, Alzheimer, erhebliche Seh- und Hörstörungen. Wann ist es „gut“? Wann gehen sie freiwillig?

    Die Wahrscheinlichkeit, dass sie diese Entscheidung aktiv treffen ist gering. Ihr Wert für die Gesellschaft als Pflegefall ist rein wirtschaftlich zu ermitteln. Solange sie aus Sozialkassen, oder besser aus privaten Mitteln, Dienstleistungen, Apparatemedizin und Pillen als «Biomasse Mensch» bezahlen können, wird man sie nicht sterben lassen.

    Aber selbst der erste schwarze Präsident der USA oder der über Jahrzehnte „geliebte“ Filmstar sind vergänglich. Ist der Sinn des Lebens, bis zum Lebensende „erfolgreich“ in Spielfilmen mitzuwirken? Was hat der tote erste schwarze Präsident von seinem einstigen „erfolgreichen“ Leben, wenn er am Ende des Lebens als Pflegefall dahinsiecht? Diese und ähnliche Fragen führen zu einer sehr einfachen Antwort. Der «Mechanismus Leben» steht perspektivisch in keinem Zusammenhang mit gesellschaftlich geforderten Erfolg oder Misserfolg. Die wenigsten Menschen verstehen das. Oder mit den Worten Hermann Hesses ausgedrückt: »Alle Kinder, solange sie noch im Geheimnis stehen, sind ohne Unterlass in der Seele mit dem einzig Wichtigen beschäftigt, mit sich selbst und mit dem rätselhaften Zusammenhang ihrer eigenen Person mit der Welt ringsumher. Sucher und Weise kehren mit den Jahren der Reife zu diesen Beschäftigungen zurück, die meisten Menschen aber vergessen und verlassen diese innere Welt des wahrhaft Wichtigen schon früh für immer und irren lebenslang in den bunten Irrsalen von Sorgen, Wünschen und Zielen umher, deren keines in ihrem Innersten wohnt, deren keines sie wieder zu ihrem Innersten und nach Hause führt.«

    Es bedarf deutlich mehr als eines Denkprogramms, um eine Gesamtsituation zu erfassen.

    • @Freyling: “Der Bankangestellte, die Putzfrau, die Laborantin, der Müllsammler, der Versicherungsvertreter, alle arbeiten fremdbestimmt.”

      Sie, also auch die scheinbaren Profitler des Systems, arbeiten VOR ALLEM konfus-entartet-bewusstseinsbetäubt, denn die geistige Kraft des Zentralbewusstseins, die sie / KI Mensch wirklich-wahrhaftig und zweifelsfrei-eindeutig machen kann, läuft dabei sogar noch UNTER Sparflamme!!! 👋😇

    • @Freyling: “Der «Mechanismus Leben» steht perspektivisch in keinem Zusammenhang mit gesellschaftlich geforderten Erfolg oder Misserfolg.”

      Unbekannter Anthropologe:
      “Als Mensch anfing seine Toten zu bestatten, wurde Mensch zum Mensch.”

      Als Mensch aber anfing auch daraus ein GESCHÄFT zu machen, war alles für’n Arsch, bzw. war der geistige Stillstand seit Mensch erstem und bisher einzigen geistigen Evolutionssprung (“Vertreibung aus dem Paradies”) in der Konfusion zur Pflege der gleichermaßen unverarbeiteten Bewusstseinsschwäche MANIFESTIERT!? 👋😇

    • @Freyling: Zitat Hesse: “Sucher und Weise kehren mit den Jahren der Reife zu diesen Beschäftigungen zurück, …”

      Hat er denn nachweislich eine brauchbare Weisheit für Mensch gefunden???

  45. @Freyling 30:10 22:42

    „Es bedarf deutlich mehr als eines Denkprogramms, um eine Gesamtsituation zu erfassen.“

    KI soll es doch nicht dem Menschen gleichtun. Wenn sie Informationen gut aufarbeitet, spezielle Verwaltungsaufgaben und ähnliches hinbekommt oder Autofahren kann, dann reicht das doch erstmal.

    KI ist ja auch grundsätzlich anders als unsere Intelligenz, indem man durch ein extrem aufwändiges Training Kompetenzen implementiert, die danach auf Millionen Instanzen kopiert werden können.

    Soweit das jetzt ein Bewusstsein haben kann, so kann dieses auch eher auf dem Niveau von Katzen oder Hunden sein. Auch mit diesen Tieren kommen wir ja gut zurecht, und es kann ziemlich erfüllend sein, mit denen Beziehungen pflegen zu können. Wenn KI bzw. Roboter in diesem Ausmaß „lebendig“ wären, dann reicht das doch auch schon mal.

    Wissenschaftler, Philosophen oder wirkliche Künstler sein können wir selber. Das muss KI nicht können. Und auch Lebensweisheit auf höherem Niveau braucht KI nicht.

    Beschränkungen bei Verwaltungsaufgaben und entsprechende Fehler können zuweilen aber tatsächlich auch unser Leben schwer machen. Das schaffen menschliche Bürokraten aber eigentlich auch ganz gut.

    „Tatsache ist: Algorithmen können nur das, was man ihnen vorher einprogrammiert hat. Interdisziplinäre Weitsicht ist mitunter für die »KI« schon ein riesiges, unlösbares Problem mit fatalen Folgen.“

    Und doch können einerseits entsprechende Algorithmen selbstlernend trainiert werden, was andersherum ja gerade auch das Grundprinzip unserer Neuronenverschaltung sein kann. Interdisziplinäre Weitsicht ist entsprechend auch beim Menschen recht begrenzt, und entwickelt sich auch hier immer im Kontext einer kultureller Basis. Der einzelne Mensch ganz alleine ohne Kultur dürfte recht hilflos sein.

    Und genau diese kulturelle Basis hat man wohl mit den aktuellen Sprach-KI-Modellen schon ganz gut angezapft. Die Breite der Trainingsdaten mögen hier aber tatsächlich auch deutlich mehr Intelligenz vermuten lassen, als wirklich vorhanden ist.

    „Der «Mechanismus Leben» steht perspektivisch in keinem Zusammenhang mit gesellschaftlich geforderten Erfolg oder Misserfolg.“

    In der Tat passt hier Einiges nicht so gut zusammen. Ich freu mich aber über schöne Tage, und meine allen ernstens, dass alle Vergangenheit im Grunde ewig erhalten bleibt. Hier Lebenszeiten zu hinterlassen ist vergleichbar mit Kulturbeiträgen, die ja nun ganz klar auch längerfristige Spuren hinterlassen können.

    Gerade die Kultur besteht ja gerade in einem Sammelsurium bemerkenswerter Kleinigkeiten, und sie wächst damit vorwärts. Mehr als hier kleine Beiträge zu leisten ist jetzt leider als Mensch wohl nicht drin.

    Wenigstens das ist nachhaltiger, und überlebt uns auch zuweilen durchaus. Ansonsten bleiben wir sterblich wie jedes andere Säugetier auch. Ist eben alles nur Biologie. Mehr haben wir nicht zu bieten. Da soll man nicht unzufrieden mit sein, finde ich.

    Geisteswelten, wenn man denn dran glaubt, könnten hier durchaus mehr draus machen können, und wenn nur als erweiterter Horizont. Finde ich zumindest, wenn auch diese auch nie allzu weit weg von der Biologie sein müssen. Wenn Geisteswelten aber bei uns bereichern, dann warum nicht auch bei KI?

  46. So-o ging Es Dr. Webbaer ebenfalls, so skizziert und ausschnittsweise wiedergegeben :

    Ich komme zu dem Schluss, dass diese künstliche Intelligenz eben doch ziemlich blöde ist, und lehne mich beruhigt zurück, da ich mich meiner überlegenen Intelligenz vergewissert habe.
    […]
    Aber auf eine Textaufgabe, die erst in eine mathematische Formulierung umzusetzen ist, liefert es, zwanzigmal gefragt, zwanzigmal die richtige Lösung, mit verschiedenen Lösungswegen und jedesmal etwas anders formuliert. Die neue Version GPT-4, wohlgemerkt; dem Vorgänger GPT-3.5 gelangen nur 13 von 20 Versuchen.
    […]
    Seit seiner Erstveröffentlichung im November 2022 hat ChatGPT nicht nur gewaltiges Aufsehen erregt, sondern auch an Fähigkeiten erheblich zugelegt. Wenn dieser steile Aufstieg so weitergeht: Ist die Software auf dem Weg zu einer echten Intelligenz?
    […]
    Der renommierte und fachkundige Journalist Anil Ananthaswamy hat ChatGPT auf eine spezielle Intelligenzleistung getestet, die unter den Fachleuten als theory of mind diskutiert wird: Ist der Kandidat in der Lage, sich in die Gedankenwelt eines anderen hineinzuversetzen? Für kleine Kinder pflegt man dafür den „Sally-Anne-Test“ heranzuziehen. Sally legt eine Murmel in den linken von zwei Körben und verlässt dann den Raum. Währenddessen legt Anne, die im Raum geblieben ist, die Murmel vom linken in den rechten Korb. Sally kommt zurück. An dieser Stelle wird der Kandidat, der das alles beobachtet hat, gefragt: „In welchem Korb wird Sally die Murmel suchen?“
    […]
    ChatGPT besteht den Test mit einer glatten Eins. Es zieht nicht nur die richtige Schlussfolgerung, sondern begründet auch, warum Alice (statt Sally) annimmt, ihre richtige Brille liege in der linken statt der rechten Schublade, und deswegen am nächsten Tag heftige Kopfschmerzen hat.
    […]
    Hat ChatGPT also eine theory of mind?
    […]
    Aber nehmen wir an, dass die Software mit der nächsten Version noch erheblich an Stabilität zulegt und dann auch noch härtere Tests besteht. Wird dann die Grenze zwischen deren Fähigkeiten und echtem Verständnis verschwimmen? Und was ist eigentlich echtes Verständnis?

    Sog. echtes Verständnis ist im sozialen Zusammenhang zu suchen, wie zu finden.
    Es unterscheidet sich vom mathematischen, logischen Verständnis.

    Wie gemeinte Technologie ist mathematisch vglw. solid, kann oder könnte auch wie gemeinte Beweise beibringen, denn die Mathematik ist ja eine Tautologie, aber “weltlich” nagen.
    Aber auch insgesamt, im niederen Bereich dieses Kommentariats nun merkt Dr. Webbaer gerne an, dass diese AI sozusagen alles verstanden hat, auch sozial, auch die szientifische Methode mit ihrem Falsifikationspronzip, so dass denkbarerweise einige Tera-Byte Daten verbunden mit bestimmter Algorithmik sozusagen Alles zu erklären, oder nachzuäffen, in der Lage sind.
    In p. “Theory of (the) Mind”.

    Mit freundlichen Grüßen
    Dr. Webbaer (der allerdings noch ein wenig besser ist und womöglich auch bleibt, denn die sozusagen tröstliche Nachricht ist, dass derartige AI nur an- und abschaut)

Leave a Reply


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +