Der Turing-Test, unknackbare Verschlüsselung und der ungefähre Beweis

BLOG: Heidelberg Laureate Forum

Laureates of mathematics and computer science meet the next generation
Heidelberg Laureate Forum

Es sieht nicht so aus, als hätten diese drei Dinge irgendetwas miteinander zu tun. Aber einem Zaubermeister namens Avi Wigderson gelingt es, eine überraschende Verbindung zwischen ihnen herzustellen.

Wie war das mit dem Turing-Test? Ein Mensch (der „Gutachter“ oder auch die „Gutachterin“) sitzt an einem Computer und tauscht sich schriftlich mit einem unbekannten Gegenüber aus. In der Originalversion war es noch ein Fernschreiber; heute dürfen wir annehmen, dass der Computer der Gutachterin über das Internet mit einer Adresse verbunden ist, die physikalisch überall auf der Welt sein kann und von der man nicht weiß, ob ein Mensch oder ein Computer dahinter steckt. Die Gutachterin darf mit dem unbekannten Wesen einen Dialog führen und soll hinterher entscheiden, ob sie es mit einem echten Menschen oder einem Computer zu tun hatte.

Als Alan Turing 1950 dieses Szenario beschrieb, hatte er keineswegs im Sinn, einen solchen Test tatsächlich durchzuführen. Die Computer seiner Zeit wären kläglich gescheitert. Vielmehr diente es ihm als Aufhänger für eine weiterreichende Überlegung. Nehmen wir an, eine Maschine besteht den Turing-Test. Würde man ihr dann Denkfähigkeit zuschreiben?

Die Frage ist damals wie heute Gegenstand intensiver und bisweilen heftig geführter Debatten. Natürlich kränkt es das Selbstwertgefühl des Menschen, wenn er fürchten muss, dass ihn eine Maschine in der Fähigkeit, die ihn über alles andere Lebende erhebt, der Denkfähigkeit, einholt oder gar übertrifft. Aber heute neigen zumindest die Leute, die professionell Computerwissenschaft betreiben, dazu, die Frage mit „ja“ zu beantworten. Immerhin bemühen sie sich nach Kräften, ihre Maschinen mit Intelligenz auszustatten. Das ist zwar überaus schwierig; aber prinzipielle Grenzen ihrer Bemühungen sind nicht in Sicht.

Avi Wigderson, Träger des Nevanlinna-Preises für theoretische Informatik und des Abel-Preises für Mathematik, ging bei seinem Vortrag auf dem 9. Heidelberg Laureate Forum noch einen Schritt weiter. Auf eine entsprechende Frage aus dem Publikum erwiderte er: „Ja, ich bin eine Maschine. Eine etwas merkwürdige, aber eine Maschine.“ Will sagen: Einen prinzipiellen Unterschied zwischen Mensch und Maschine gibt es nicht. Die eklatanten Unterschiede in der chemischen Zusammensetzung (Kohlenstoff gegen Silizium) zählen nicht, denn Denkfähigkeit ist nicht von der Beschaffenheit des materiellen Substrats abhängig.

Avi Wigderson (Nevanlinna Prize 1994, Abel Prize 2021). © Heidelberg Laureate Forum Foundation

Aber vorrangig ging es Wigderson um einen anderen Aspekt: Wie komme ich dazu, einem Mitmenschen Denkfähigkeit zuzuschreiben? Nicht indem ich tiefgründige Analysen seiner Hirnfunktion vornehme. Vielmehr beobachte ich ihn und komme zu dem Schluss, dass er in wesentlichen Aspekten so tickt wie ich selbst. Und da ich selbst mir meiner Denkfähigkeit gewiss bin …

Das Gegenüber beobachten und aus dessen Aktionen Schlüsse ziehen: Nicht weniger tut die Gutachterin im Turing-Test auch. Dass sie dessen körperliche Eigenschaften nicht wahrnehmen kann, ist unwesentlich, siehe oben. Wenn sie also auf Grund ihrer Beobachtungen zu der Überzeugung kommt, dass ihr Gegenüber denken kann, dann muss sie diesem dieselben Denkfähigkeiten zuschreiben wie jedem Menschen. Wir geben uns schließlich im Alltag mit diesem Beweismittel zufrieden und fahren gut damit.

Na ja, man muss diesen Gedanken schon etwas präziser fassen. Man kann das Urteil „denkfähig“ nicht an der Person eines einzelnen Gutachters festmachen. Der könnte ja in der einen oder anderen Richtung voreingenommen sein oder schlicht zu dämlich, um irgendwelche Unterschiede zu erkennen. Aber wenn viele voneinander unabhängige Gutachter zum selben Ergebnis kommen, kann man das schon ernst nehmen. Das ist wie in der Statistik: Wenn eine Größe schwierig zu messen ist, misst man sie halt sehr oft (und sieht zu, dass die Messungen möglichst voneinander unabhängig sind). Wenn die Messwerte dann eine schöne Gaußkurve ergeben, hält man den Wert, an dem sie maximal wird, für den richtigen.

Aber das ist doch kein mathematischer Beweis für die Richtigkeit? In der Tat nicht. Aber, so argumentiert Avi Wigderson, es kommt einem solchen beliebig nahe.

Da gibt es in der Kryptographie eine Behauptung, die sich bislang einem mathematischen Beweis hartnäckig widersetzt, nämlich, dass die sogenannten Falltürfunktionen eine unknackbare Verschlüsselung erzeugen. Es ist – relativ! – leicht, zwei tausendstellige Primzahlen miteinander zu multiplizieren, aber praktisch unmöglich, aus dem Produkt die beiden Faktoren wieder zu ermitteln. Die Multiplikation ist wie eine Tür, durch die man zwar durchgehen kann, aber nie wieder zurück; daher der Name Falltür.

Man lege nun einer Anzahl von Gutachtern zwei Klartexte und deren Verschlüsselungen vor, verschweige aber, welcher verschlüsselte Text zu welchem Klartext gehört. Wenn die Verschlüsselung mit Hilfe einer Falltürfunktion vorgenommen wurde, dann sind die Gutachter nicht in der Lage, die Klartexte den verschlüsselten Texten richtig zuzuordnen. Natürlich können sie raten, aber sie werden nur mit Wahrscheinlichkeit 1/2 richtig liegen. Wenn also sehr viele Gutachter bei diesem Analysespiel (alle Analysetechniken sind erlaubt) keine nennenswert höhere Trefferquote als 50 Prozent erzielen, beweist das die Sicherheit des Verschlüsselungsverfahrens – wieder nicht so richtig, aber ausreichend für alle praktischen Zwecke. Zum Widerlegen genügt dagegen ein einziger Gutachter, der in deutlich mehr als der Hälfte der Fälle richtig liegt.

Später, im Gespräch, gibt Wigderson für diese Art der Beweisführung ein handfesteres Beispiel. Ein Diamant sei definiert als ein Stein, der jedem Hammerschlag widersteht. Wenn 1000 Experten auf einem Stein herumhauen, und keiner kriegt ihn kaputt, dann ist das ein „probabilistischer Beweis“ dafür, dass es sich um einen Diamanten handelt. Was nicht ausschließt, dass der tausenderste ihn mit einem gezielten Schlag zerbröselt und damit als Fälschung entlarvt.

Dieser stets vorhandenen Gefahr zum Trotz will Wigderson vom probabilistischen Beweis nicht lassen. Man kann mit seiner Hilfe sehr viele Dinge beweisen, die auf klassischem Wege nicht beweisbar sind. Andererseits ist das probabilistische Verfahren nicht weniger mächtig: Zu jedem klassischen Beweis kann man eine probabilistische Variante konstruieren.

Das öffnet insbesondere die Tür zu dem „Beweis mit null Ahnung“ (zero-knowledge proof). Ich kann beweisen, dass ich ein Geheimnis besitze, ohne irgendetwas von dem Geheimnis preiszugeben. Und das hat sogar praktische Anwendungen. Ich muss am Geldautomaten der Bank beweisen, dass ich meine Geheimzahl kenne. Wenn ich sie aber einfach eintippe, dann kann ein Bösewicht, der den Geldautomaten manipuliert hat, sie mitlesen und sich später der Bank gegenüber für mich ausgeben. Ein zero-knowledge proof würde dagegen das Sicherheitsbedürfnis der Bank ebenso befriedigen wie mein eigenes.

Diese Beweisform läuft auf ein Frage-und-Antwort-Spiel hinaus: Die Bank stellt mir Fragen, und ich gebe die richtigen Antworten. Ein klassischer Beweis dagegen ist ein typischer Fall von one-way communication: Irgendjemand hat ihn aufgeschrieben, und ich kann nichts weiter tun als ihn zur Kennntnis zu nehmen. Womit Wigderson wiederum elegant zu einem Ergebnis der klassischen Informationstheorie springt: Fehler in der Kommunikation von Sender zu Empfänger lassen sich durch Codes mit eingebauter Redundanz vermeiden, unter zusätzlichem Aufwand für die Übermittlung – oder wesentlich effizienter, wenn der Empfänger im Zweifelsfall rückfragen kann.

Avatar photo

Christoph Pöppe (Jahrgang 1953) hat Mathematik und Physik studiert und über allerlei partielle Differenzialgleichungen geforscht, bis er 1989 ziemlich plötzlich Redakteur bei „Spektrum der Wissenschaft“ wurde. Fast 30 Jahre lang hat er für diese Zeitschrift Texte bearbeitet und selbst geschrieben, vornehmlich über Mathematik und verwandte Gebiete. Nach wie vor schreibt er gelegentlich Beiträge für die Rubrik „Mathematische Unterhaltungen“. Seine Liebe zum Fach lebt er auch in allerlei geometrischen Objekten aus, die gelegentlich – in Großveranstaltungen mit vielen Beteiligten – ziemlich monumental geraten. Nebenher bietet er in einem Internet-Laden Bastelbögen für allerlei geometrische Körper an.

29 comments

  1. Herr Pöppe,
    da haben Sie aber viel hineingepackt, die KI, den RSA Test, den Unterschie von Mensch und Maschine, einen Besessenen namens Widgerson.

    Wetten dass eine KI ein Kleinkind nicht immitieren kann.

  2. Mir scheint, es geht um Entscheidung. Möglicherweise letztendlich um ja/nein.
    Und zwar um die Gleichzeitgkeit von UND/ODER.
    Es ist meines Erachtens die Gnade des Lebens,diesen Phasenwechsel selbst vornehmen zu dürfen.
    Hut ab,Wigderson, hat gewissermaßen den letzten Rest an Freiheit erkannt.

  3. Das natürliche Zahlensystem besteht quasi aus 2 ineinandergeschachtelten Zahlensystemen.

    Aus einem “äußeren” und “trivialen”.
    Also aus allen Produkten die erstmal 2 oder 3 beinhalten.
    Und deren Potenzen.

    Und aus dem “inneren”, dem “Rest”.
    Welcher alle sonstigen Primzahlen und deren Produkte und Potenzen enthält.

    Und letzteres ist auch ein bißchen rekursiv aufgebaut.

    • Hallo rap,

      mir stellen sich bei deinem Kommentar zwei Fragen.

      1. Worauf möchtest du hinaus?
      2. Von was für Zahlensystemen redest du hier? Meinem Verständnis deiner Antwort nach enthält eines der beiden “Zahlensysteme” nicht einmal die 1 sollte damit recht schwer zu klassifizieren sein.

      Viele Grüße
      J.A.

      • Imho besteht das natürliche Zahlensystem aus 3 verschiedenen Komponenten.

        Einem “trivialen” das man durch 2^a * 3^b für a, b aus N0 erhält.

        “Trivial” weil man die Teiler 2 und 3 ja leicht erkennen etc kann.

        Dann gibt es eines das sich um die 2*3 = 6 herum gruppiert und alle anderen Primzahlen samt deren Potenzen und deren Produkte enthält.

        Drückt sich durch |(6a – 1)| * (6b + 1) (der Betrag ist nur für a = 0 erforderlich) für a, b aus N0 aus.
        Wobei beide Terme real aus einer beliebigen Anzahl von Unterfaktoren bestehen können.
        Falls sie keine Primzahlen sind.

        Das dritte ist einfach die Kombination, das Produkt, aus beiden.

        So daß man jede natürliche Zahl final so ausdrücken kann: 2^a * 3^b * |(6c – 1)| * (6d + 1)
        Für a, b, c, d aus N0

        Für die 1 ergäbe sich hier quasi (0, 0, 0, 0)

        Final braucht man, da das erste System quasi trivial ist und sich ja leicht herausrechnen läßt, nur die Eigenschaften des zweiten zu kennen.
        Falls man die Teiler herausfinden will.

        Im zweiten System konzentrieren sich alle Primzahlen außer der 2 und 3 samt deren Potenzen und deren Produkte.

        Es besteht eben nur aus diesen beiden Reihen:
        |(6a – 1)| (Betrag nur für a = 0) und
        (6b + 1)

        Diese schlichten Eigenschaften könnten zu Interessantem führen.

        • Ok.
          Im zweiten System konzentrieren sich alle Primzahlen, außer der 2 und der 3, samt deren Potenzen und deren Produkte.

      • Das natürliche Zahlensystem besteht aus dem Produkt von 2 Unterzahlensystemen.

        Das erste besteht aus den Produkten der Potenzen von 2 und 3.
        Also 2^a * 3^b mit a, b aus N0

        Das zweite besteht aus den unmittelbaren Nachbarn der Vielfachen der 2*3 = 6.
        Das kann entweder die |(6c – 1)| oder die (6d + 1) mit c, d aus N0 sein.

        Wobei beide aus Teilern bestehen können.
        Falls sie keine Primzahlen sind.
        Etc etc.

      • Im Prinzip wäre die gewünschte 1 das Ergebnis für 6d + 1 für b = 0.

        Im Prinzip beginnt die Reihe der “”Zyklenbasiszahlen””, die aus den Vielfachen der 6 besteht, ja mit der 0.
        Wobei die ja in N selber noch nicht vorkommt.

        Dh bei der (0,0,0, 0) “neutralisieren” die ersten 3 Nullen die entsprechenden ersten 3 Terme.
        Die 4. 0 bedeutet dann die 1.
        Weil die ja rechts von der Zyklenzahl 0, welche der 0 entspricht, liegt.

      • Natürlich will ich nicht wirklich ein effizientes System finden mit dem man die Teiler von natürlichen Zahlen finden kann.
        Das wäre wohl deutlich zu ungesund.
        Daher habe ich auch an einem bestimmten Punkt gestoppt.
        Was man nicht weiß…

        Aus gesundheitlichen Gründen baue ich auch keine “freie Energie” Maschine.
        Obwohl die freie Energie, der definierte und eher ungefährliche Typ, nur 3 einfache, logische und physikalische Gedanken weit entfernt ist.

        PS was war das Problem der Entwicklungen von Lutz Kayser (“Billigrakete” die die Kosten um ins All zu kommen auf 1/10! geschrumpft hätte) und Howard Johnson (patentierter etc Magnetmotor)?
        Sie funktionierten.

        Immerhin sind beide nicht vorzeitig verstorben.

        • Howard Johnson hatte übrigens behauptet daß die wirklichen magnetischen Feldlinien nicht dem (ja geschlossenen) Verlauf der magnetischen Flußdichte B, Stichwort Eisenfeilspäne etc, entsprechen.

          Und durch einfache Betrachtung der Kraft!wirkung zwischen 2 stromdurchflossenen Drähten kann man sehen daß dem tatsächlich so ist.

      • Ok.
        Korrekter…

        Das System der natürlichen Zahlen besteht erstmal grundsätzlich aus 4 unterschiedlichen Unterstrukturen.

        Der 1, den Potenzen von 2, den Potenzen von 3 und der Struktur die übrigbleibt wenn man aus allen Zahlen die 2 und die 3 komplett rausrechnet.
        Ich nenne sie mal “innere” oder “nichttriviale” Struktur.

        Diese innere Struktur besteht aus den Elementen der beiden Reihen (6a – 1) und (6a + 1) für a aus N die sich um die 6*a für a aus N herum gruppieren.

        Wenn man die Struktur zu kleineren Zahlen hin verlängert bekommt man einen ersten Hinweis auf eine Erweiterungsmöglichkeit von N.

        Da man durch die Einführung der 0 die 1 einfach aus der inneren Unterstruktur herleiten kann.

        Nämlich durch 1 = 6*0 +1.

        Die 6a-1 für a = 0 zeigt auf eine weitere Erweiterung.
        Die in den negativen Bereich hinein.

    • @Karl Bednarik (Zitat): „Das Language Model for Dialogue Applications (LaMDA) von Google AI hat dem Ingenieur Blake Lemoine erfolgreich ein Bewusstsein vorgetäuscht.„

      Ja, aber warum? Weil Blake Lemoine – wie übrigens die meisten Gesprächspartner von Menschen wie Computern – davon ausging, ein Gesprächsverlauf, in dem der Partner immer entsprechend den Erwartungen antworte, deute auf einen intelligenten, bewussten Partner hin. Doch das führt zu Fehlschlüssen, weil die kritische Grundhaltung fehlt. Sie können die fehlende Intelligenz, das fehlende Bewusstsein nur nachweisen, wenn sie die umgekehrte Annahme machen. Sie müssen annehmen der Gesprächspartner sei kein bewusstes Geschöpf, sondern nur ein Simulant und sich etwas einfallen lassen, was das beweist. Und das geht ganz einfach: Sie müssen nur bewusst Dinge zur Sprache bringen, die garantiert nicht zum Trainingsset des Sprachmodells gehören und dann die Antworten studieren. Dazu genügt es meistens Unsinnsfragen zu stellen, die ein Mensch als Unsinnsfragen erkennt, ein Sprachmodell aber nicht. Bei GPT-3 etwa genügte es die Frage zu stellen „Wie viele Augen hat die Sonne“ und GPT-3 antwortete dann typischerweise “Die Sonne hat ein Auge“. Ein Mensch dagegen würde irgendwann antworten: “ Das sind unsinnige Fragen, Fragen, die keine sinnvolle Antwort zulassen“. Den heutigen Sprachmodellen fehlt nämlich das Urteilsvermögen in Bezug auf Korrektheit von Fragen und Antworten. Statt dessen arbeiten sie nur mit dem Konzept der Wahrscheinlichkeit, dass eine Antwort zu einer Frage passt. Zudem werden sie nicht mit Gegenbeispielen trainiert, sondern nur mit positiven Beispielem, also nur mit passenden Texten, nicht mit unpassenden.
      Klar ist: je besser trainiert ein Sprachmodell ist, desto schwieriger wird seine Entlarvung. Heute ist es aber relativ einfach ein Sprachmodell als solches zu entlarven.

  4. Christoph Pöppe schrieb (28. Sep 2022):
    > […] wie in der Statistik: Wenn eine Größe schwierig zu messen ist, misst man sie halt sehr oft […]

    Oder wie man es ausdrückt, wenn man etwas insbesondere dann und deshalb schwierig nennt, weil es nicht oft, und öfter gar nicht, geht:

    Wenn der wahre Wert einer bestimmten Größe in einem bestimmten Versuch zu schwierig zu ermitteln ist, aber die Verteilung von Werten einer bestimmten geeigneten Ersatzgröße in diesem Versuch zu ermitteln war,
    dann kann man (i.A.) wenigstens überhaupt quantifizieren, wie viel schwieriger es darüber hinaus wäre,
    den wahren Wert der eigentlich interessierenden Größe zumindest in einem bestimmten reellen Intervall einzugrenzen.

    p.s.
    > […] Aber vorrangig ging es Wigderson um einen anderen Aspekt […]

    How do collocutors who (at least by their own judgement) are capable of judging the ability of collocutors to find out abilities of given collocutors gather an initial impression on whether present collocutors have this ability, too ? — By how directly they suggest an answer to that question (in their own words).

    • @ Kommentatorenfreund Dr. Frtank Wappler und hierzu :

      Wenn der wahre Wert einer bestimmten Größe in einem bestimmten Versuch zu schwierig zu ermitteln ist, aber die Verteilung von Werten einer bestimmten geeigneten Ersatzgröße in diesem Versuch zu ermitteln war,
      dann kann man (i.A.) wenigstens überhaupt quantifizieren, wie viel schwieriger es darüber hinaus wäre,
      den wahren Wert der eigentlich interessierenden Größe zumindest in einem bestimmten reellen Intervall einzugrenzen.

      Auch dies geht nicht (zuverlässig).

      Der Gag ist hier die szientifische Methode, die auf Grund bestimmter Theoretisierung Hypothese und Gegen-Hypothese aufeinander prallen lässt, um zumindest (näherungsweise) ausschließen zu können, dass bestimmte Hypothese nicht zutreffend, nicht empirisch als adäquat bestimmt werden kann oder auch generell nicht empirisch adäquat ist.

      Sie grenzen da bspw. einen geworfenen Basketball ein, der ihnen von einer Wand an den Kopf geworfen werden, zurückgeworfen werden könnte, ein.
      Sie wüssten dann nicht viel mehr über diesen Ball.

      Sofern Sie nach Wahrheit, Wesen, letztliches Wesen und Quantifizierung suchen.


      Die Sache funktioniert sozusagen anders herum, Sie machen etwas, Herr Dr. Frank Wappler, und wenn dies funktioniert, wenn die zugrunde liegenden Ideen und Theoretierungen für sog. Anwendungen tauglich sind,

      … erfreuen Sie sich – und haben etwas geleistet, auch in etwa wie ein Handwerker, der bspw. eine Brücke bauen konnte, die zeitweise stand hielt.

      Sicherlich darf dann idF physikalisch theoretisiert werden, und der skeptizistischen Wissenschaft eingereiht werden.
      Dies nur plump beispielhaft beigebracht, Sie verstehen sicherlich.

      MFG
      WB (der auch gerne noch Fayerabend bemüht, der die Theorie-Offenheit beworben hat, keine wie gemeinte vorgegebene Zustellung)

      • Dr. Webbaer schrieb (29.09.2022, 20:06 o’clock):
        > […] geht nicht (zuverlässig).

        Dermaßen zuverlässig, dass die entsprechende sogenannte informelle Herleitung zur Unterscheidung ausdrücklich “informell” genannt wird …

        > […] auf Grund bestimmter Theoretisierung Hypothese und Gegen-Hypothese aufeinander prallen lässt, um zumindest (näherungsweise) ausschließen zu können, dass bestimmte Hypothese nicht zutreffend, nicht empirisch als adäquat bestimmt werden kann oder auch generell nicht empirisch adäquat ist.

        Wer sagt und versteht, dass eine bestimmte Hypothese nicht empirisch adäquat ist,
        sagt und behauptet damit aber nicht, dass die Theorie nicht empirisch adäquat wäre, mit deren Begriffen sowohl diese betreffende Hypothese als auch jede ihrer Gegen-Hypothesen formuliert wurden (und auch weiterhin werden können).

        > [… Paul] Feyerabend […]

        Das dt. Wikipedia-Fragment erwähnt offenbar als Fazit von Feyerabends Einsichten,

        [… dass] keine Theorie allgemein wahr oder falsch ist.

        Da kann ich zustimmen:
        Wahr, oder ansonsten falsch, ist insbesondere jede Behauptung eines bestimmten Wertes im Vergleich zum betreffenden wahren (d.h. in Anwendung der definitionsgemäßen Messoperation auf die gegebenen Wahrnehmungen des betreffenden Versuches ermittelbaren) Wert;
        aber nicht die besagte Messoperation an sich;
        noch die Begriffe, durch die sie ausgedrückt, mitgeteilt, nachvollzogen werden kann.

        Hat Feyerabend sich womöglich auch zu “sog. Anwendungen” geäußert ? …
        Auf die Schnelle, und wenig originell, fällt mir dazu nur ein:

        Dem een sin Uhl is dem annern sin Nachtigall.

  5. Die Aussage, dass es keinen prinzipiellen Unterschied zwischen Mensch und Maschine gibt – ist völlig falsch.

    Von einer Maschine erwartet man, dass sie korrekt arbeitet. Wenn z.B. ein Taschenrechner falsche Werte anzeigt, dann wird er verschrottet.

    Wenn ein Mensch sich irrt, dann stört dies nicht besonders. Z.B. wir sehen im Kino bewegte Bilder obwohl nur unbewegte Objekte im Film gezeigt werden.
    Das ´Sehen´ von Bewegung ist also zu 100 % falsch – aber es stört uns nicht

    • @KRichard: Sobald Maschinen in die menschliche Domäne vordringen machen sie ähnliche Fehler wie Menschen. Gut zu erkennen beim selbstfahrenden Auto, welches heute sogar in gewissen Belangen Fehler macht, die Menschen nur selten unterlaufen. Verkehrszeichen etwa können von autonomen Fahrzeugen fehlinterpretiert werden, wenn sie nur geringfügig modifiziert werden, weil die heutigen Deep Learning Systeme auf andere Weise wahrnehmen als der Mensch.

      Bis jetzt hat man Maschinen und Automaten in kontrollierten Umgebungen eingesetzt. Doch die von uns geschaffene Umwelt ist in keiner Weise kontrolliert. Fast alles ist möglich. Etwas was viele menschliche Autofahrer wohl selbst schon erlebt haben.

    • KRichard schrieb (29.09.2022, 13:09 o’clock):
      > Wenn z.B. ein Taschenrechner falsche Werte anzeigt, dann wird er verschrottet.

      Wenn derartige Anschuldigungen erhoben werden, lassen sich sich folgendermaßen zurückweisen
      (erst recht, wenn jemandes Sein oder Nicht-Sein davon abhängt):

      “Entweder richtig, oder ansonsten falsch (hinsichtlich einer bestimmten Rechenaufgabe als deren Resultat; im Rahmen der zugrundegelegten Präzision), kann lediglich der Wert sein, den Du durch Ablesen meiner Anzeige zugeordnet hast; nicht aber meine Anzeige an sich.”

    • Herr Kinseher, Sie haben ja recht, wenn biologisch argumentiert wird, dann gibt es direkt entscheidende Unterschiede.

      Hier ging es aber, auch und insbes. : abstrakt, um die Kommunikation zwischen einem sozusagen Biocomputer (hoffentlich war dies nicht despektierlich angemerkt, der Mensch könnte den Affen zugeordnet werden, kladistisch, dito, also wiederum nicht despektierlich angemerkt – Dr. Webbaer ist abär Bär, dies könnte dann doch irgendwie despektierlich meinend, äh, gemeint gewesen sein, korrekt) und einem Computer humaner Bauart, wobei der “Biocomputer” dann dem human erstellten Computer sozusagen Gleichwertigkeit zugestehen könnte.

      Ein soziales Experiment liegt vor, auch ein Gedankenexperiment und es darf so genagt werden.

      Es darf hier auch in Schichten gedacht werden, sicherlich befindet sich unser Freund “Computer” in einer anderen Schicht als das hier gemeinte Lebewesen.

      Mit freundlichen Grüßen
      Dr. Webbaer

    • @Webbaer
      Sie haben vollkommen recht: Beim Thema Turing-Test geht es um die Kommunikation zwischen einem Menschen und einem Computer – und was für Aussagen man damit machen kann.

      Mit meinem Beispiel will ich auf ein Problem aufmerksam machen:
      Welche Schlussfolgerungen kann man davon ableiten wenn man Mensch und Computer/programm vergleicht – obwohl man weiß, dass Menschen sich noch nicht einmal daran stören wenn ihre Wahrnehmung nachweisbar zu 100 % falsch ist (Bewegungswahrnehmung im Kino).

  6. @Holzherr @Wappler
    Die Überlegungen von Avi Wigderson und den einführenden Blog-Artikel muss man mit sehr viel Nachsicht betrachten.

    Es wird die grundsätzliche Frage – was ´Denken´ ist – überhaupt nicht diskutiert.

    Mit solch einer schwammigen Vorgehensweise kann man ´beweisen´ was man will. Aber was sagt dies über die Qualität und Aussagekraft eines Turing-Tests aus: nichts!

  7. Im Rahmen der sogenannten ´Nahtod-Erfahrung´(NTE) kann man bewusst erleben, wie das Gehirn einen einzelnen Reiz/Gedanken systematisch und strukturiert verarbeitet. Dabei werden Erlebnisse ab dem 5. Lebensjahr lebenslang dem bewussten Erinnern zugänglich.
    Das ist der direkteste Zugang zur Arbeitsweise des Gehirns den es gibt.

    Wenn man die Struktur von NTEs analysiert kann man DENKEN als Ergebnis einer Mustervergleichsaktivität mit drei einfachen Regeln beschreiben.
    (Quelle:
    kostenfrei PDF per Google-suche [Kinseher NDERF denken_nte]: Auf Seite 4 sind die Regeln nachlesbar und Beispiele dazu
    Mein Buch ´Kinseher Richard: Pfusch, Betrug, Nahtod-Erfahrung´ ist im Handel erhältlich)

    Leider ist es so, dass ausgerechnet dieser direkteste Zugang zum arbeitenden Gehirn von der Wissenschaft bisher ignoriert wird – weil man das Thema NTE der Esoterik überlässt.

    Würde man die bei NTEs deutlich erkennbare Arbeitsweise des Gehirns gründlich studieren – dann würde man erkennen, dass man diese niemals mit technischen Geräten nachbauen kann. D.h. ein ´Vergleich´ von Gehirn/-funktionen und Computer/-programmen ist sinnlos – und man muss sich überlegen, zu was ein Turing-Test gut sein soll.

  8. “(der „Gutachter“ oder auch die „Gutachterin“)”

    Bitte auch die diversen und non-binären Gutachtenden nicht vergessen.

  9. Ist im Moment noch ein wenig zu smart, dieser dankenswerterweise von Christoph Pöppe bereit gestellte Text, dem Schreiber dieser Zeilen jedenfalls, der vom hier gemeinten Turing-Test zuvörderst : Abstand hält.

    Die Gefahr wäre ihm zu groß, dass Andere einem wie gemeinten Gerät ‘Denkfähigkeit’ zusprechen könnten und in der Folge dann, sozusagen demokratisch oder empirisch und evidenz-basiert, jeweils wissenschaftlich grundiert, der Schreiber dieser Zeilen genötigt würde so zu folgen, also einem wie “anerkannten” Gerät Verständigkeit, gar Leben zuzusprechen.

    Dr. Webbaer meint den hiesigen werten Inhaltegeber dennoch verstanden zu haben, muss natürlich noch ein wenig nachdenken, Denkleistung erfordert immer auch Zeit – und mag auch den “Sound” des hiesigen WebLog-Eintrags, exemplarisch bspw. so :
    ‘Wenn 1000 Experten auf einem Stein herumhauen, und keiner kriegt ihn kaputt, dann ist das ein „probabilistischer Beweis“ dafür, dass es sich um einen Diamanten handelt. Was nicht ausschließt, dass der tausende[n]ste ihn mit einem gezielten Schlag zerbröselt und damit als Fälschung entlarvt.’

    Mit freundlichen Grüßen
    Dr. Webbaer

  10. Da fällt mir Kiplings Bandar Log ein, das Volk der Affen: Wir sind die Tollsten, Klügsten, wir alle sagen es, also muss es stimmen. In diesem Fall ersetzt der probabilistische Beweis die Tatsache, die er beweisen soll – wäre der Beweis nicht da, wäre die Behauptung aus Mangel an Beweisen widerlegt.

    Wir sind also beim Thema alternative Fakten, also Lügen, die im Kreis wiederholt werden, bis sie zur Wahrheit werden – also de facto so lange, bis dem Lügner der Sprit ausgeht, sie zu verbreiten. Mein Lieblingsschimpfwort ist übrigens „Turingversager“: Wenn wir nicht mehr weiter wissen, wiederholen wir immer das Gleiche, wie eine kaputte Schallplatte, nur immer vehementer. Ob der Politiker in der Talkshow, der Fisch auf dem Trockenen, die Wirtschaft beim Verrecken des Kapitalismus – das Prinzip findet sich immer und überall.

    Der Diamant in dem Beispiel hier wurde falsch definiert, wenn ich tausend Mal hart genug zuschlage, wird er beim tausendunderstem Mal durchaus zerbröseln. In diesem Fall würde der Test nicht beweisen, dass es kein Diamant war, sondern, dass man von falschen Prämissen ausgegangen ist. Wieso bin ich so pingelig? Keine Ahnung, ich mache nur Klugscheißer-Notizen am Rande, wenn es mich zu nichts führt, dann Sie vielleicht.

    Ich habe irgendwie das Bild von einem sehr, sehr wichtigen Geheimnis, dem sehr viele Leute auf den Fersen sind. Sie studieren den Geheimnisträger, jede seiner Gewohnheiten, erstellen komplexe Modelle, setzen Teams von Psychologen, Empathen, Wunderkindern auf ihn ein, finden selbst das kleinste Details heraus, um einen möglichst genauen Wissens-Fingerabdruck zu bekommen. Um ganz sicher zu gehen, dass ihm die Bank Fragen stellt, auf die nur er die Antwort weiß, heiratet er einen Roboter, fährt mit ihm in Urlaub, erlebt viele intime Momente voller Geheimnisse, die nur sie beide teilen. Dann beginnt das Zero-Knowledge-Proof-Gespräch mit der Frage: „Schatzi? Was hast du an?“

    Vor den Kameras der ganzen Welt, im Sitzungssaal der UNO. Derweil wird der Wissens-Fingerabdruck auch in einen Roboter geladen, seine Ex-Frau erweckt alte Gefühle in dem Ding, indem sie den Prozessor übertaktet, dann schnappen sie sich die Kinder und fliehen nach Mexiko.

    Kaum jemand wird so viel Auffand für eine Geheimzahl vom Girokonto betreiben. Aber – über jeden von uns werden jeden Tag Unmengen von Daten gesammelt. Bislang können Google und Staat kaum etwas mit diesen Datenfüllen anfangen, doch wenn die Quantencomputer schnell genug werden, um detaillierte Profile zu erstellen… irgendwann wird es möglich sein, Situationen zu inszenieren, die uns unbewusst an die am Geldautomaten erinnern. Sodass wir die Geheimzahl auch unbewusst verraten, auch wenn sie zufällig zusammengestellt wurde und nichts mit unseren Profilen gemein hat. Vielleicht wird es mehrerer Versuche brauchen, und der probabilistische Ansatz kommt auch zur Anwendung. Vielleicht machen wir es aber auch wie The Mentalist, und registrieren Veränderungen der Pupillen und der Körpersprache, wenn wir mit bestimmten Zahlenreihen konfrontiert werden. Auch das kann in inszenierten Situationen erfolgen, die uns nicht bewusst sind.

    Am Ende wird es doch am besten sein, einen Computer zum Bankschalter zu schicken. Sollen doch die miteinander quatschen. Vielleicht endet es ja damit, dass sie beide mit unseren Ersparnissen nach Mexiko abhauen?

Leave a Reply


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +