“Quellen aus dem Internet sind nicht zuverlässig”
die Aussage vom Titel habe ich im Studium oft gehört – das ist natürlich heute höherer Quatsch. Heute diskutieren wir, welche webbasierten Werkzeuge (KI, LLM, Rechnungen, etc.) wir wofür (zweckorientiert) einsetzen (siehe z.B. auch Michael Blumes Post). Hier ein paar Gedanken zum Thema.
“Wikipedia ist keine Quelle”
Das ist immer noch korrekt. Wikipedia ist eine Bibliothek oder Schule: Da haben fleißige Leute (Menschen!) irgendwelche Publikationen gelesen, z.B. Bücher und Fachartikel, und teilen ihr Wissen. Man darf die Wikipedia immer fragen und quasi jede (auch wissenschaftliche) Recherche beginnt hier.
“Keine Autoren” (Vorwurf). Das ist klar falsch (schon immer), die Autoren sind angegeben – aber per Default werden nur die Usernamen (nicht Klartext) angezeigt und man kann nicht recherchieren, wer die Person wirklich ist. Das ist ein Problem, weil – wie man bereits in der Schule lernt – ein Text nur im Kontext (Charakter, Bildung, gesellschaftliche Hintergründe) von zeitgenössischen Gegebenheiten und der Person darin verständlich ist. Allerdings ermöglicht die Wikipedia auf diese Art allen Menschen gleichberechtigt das Teilen von Wissen (ein bisschen wie das, was wir in naturwissenschaftlichen Jugendlagern schon vor 2000 beobachteten): nicht selten sind Studierende klüger als ihre Professoren, aber doktorale und professorale Titelei macht in der Öffentlichkeit mehr her (Mannsein übrigens auch). Wenn Studierende ihre klugen Recherchen in der Wikipedia übers Universitätsseminar hinaus einem breiteren Kreis zugänglich machen, ist das ein Gewinn für alle. Inzwischen weiß ich von zahlreichen Dozierenden in mehreren Ländern, dass sie statt klassischen Essays für die Mülltonne von ihren Studierenden als Prüfungsleistung wikipedia-Beiträge fordern (online zu stellen erst nach Begutachtung und ggf. Überarbeitung).
In der Wikipedia gilt Belegpflicht: man kann also nicht einfach irgendeine persönliche Meinung dort eintragen (bzw. wenn man es täte, würde sie bestimmt schnell von anderen gelöscht werden), sondern man muss belegen, woher das Wissen stammt. So können also alle Lesenden nachvollziehen und ggf. selbst beurteilen, ob das Wissen vllt. veraltet ist bzw. es in den Kontext einordnen.
Weil die Wikipedia-Artikel von echten Menschen als Zusammenfassung von anderer Literatur geschrieben werden, muss man sie aber eben auch so lesen: Ähnlich wie man früher einen sehr belesenen Menschen hätte fragen können – man stelle sich eine Bibliothekarin (w/d/m) vor, die alle Bücher in ihrer Bibliothek gelesen und verstanden hat (oder den prototypischen Wissenschaftler “Spock” in Star Trek).
Die Wikipedia ist also eine Kurzfassung von Fachliteratur in einfacher Sprache (ideal für die Beteiligung von Lernenden – z.B. Schüler/ Studierende etc.) und darum auch idealer Startpunkt jeder Recherche, die dann mit den unter “Referenzen” angegebenen Stücken der Fachliteratur (bzw. modern auch Videos) weitergeht.
Wikipedia ist daher keine Quelle, sondern Werkzeug. Natürlich nutzen wir sie, aber wir geben sie nicht als Referenz an (ähnlich wie man Schulbücher nicht als Referenz angibt, wohl aber mit ihnen lernt) – ein Äquivalent zur Vorbesprechung einer Studie durch Lehrkräfte (Uni-Dozenten) oder Bibliothekare.
Künstliche Intelligenz (AI/ KI oder auch Pandämonium)
Solche Suchanfragen sollten heute mir künstlichen Intelligenzen gehen. Gerade neu auf dem Markt der kostenlosen Möglichkeiten ist derzeit die AI “Perplexity” (https://www.perplexity.ai/), bei der man 3 oder neuerdings wohl 5 Anfragen pro Tag stellen darf – danach muss man sich anmelden und ggf. zahlen. Das Gute bei Perplexity ist, dass es – im Gegensatz zu Search Engines (wie yahoo, duckduckgo, google etc.) – die Quellen mitliefert. Obwohl das schon länger angeboten wird (seit ~1.5 Jahren), habe ich erst gestern ein WerbeVideo angezeigt bekommen, das die Sache in der Tat ganz gut vorführt. In Computer-Foren, bei HeiseOnline etc. wird es schon länger empfohlen.
Berühmter ist ChatGPT, das im November 2022 released wurde und seither gern von Schülern und Studierenden genutzt wird. Wir wünschen uns von diesen ChatBots, das sie uns Texte von Fachartikeln zusammenfassend wiedergeben (wie der Android “Data” in Star Trek). Für den Start einer Recherche erstmal gut, aber AI-generierte Texte auf Webseiten (oder in Vorträgen, wie jetzt z.B. von prezi angeboten, wo es mich, ehrlich gesagt, stark nervt) halte ich für Quatsch: Da schreibt dann die Maschine einen Text (“damit was dasteht”) und wie auch bei menschlichen Vielschreibern fragt man sich: Wer soll das alles lesen?
Für einfache Aufgaben in Mathematik und Informatik soll dies besonders geeignet sein, d.h. mal eben rasch einen Code schreiben, für ein sehr genau gegebenes Problem. Ich hatte bereits im Januar 2023 darüber berichtet, dass dies unter Lehrkräften an Universitäten und Gymnasien ein Umdenken erfordert, wie wir lehren: d.h. nicht alles kann als Hausaufgabe gegeben werden und manche Aufgaben ergeben vllt. auch keinen Sinn mehr, weil es künftig eh von Maschinen gemacht werden wird. Der Beruf des Software-Entwicklers wird sich verändern: Es wird dort künftig mehr ums Denken gehen, um das Entwickeln von Algorithmen und Struktogrammen als um deren Niederschrift in formalen Sprachen. Die Informatik (die klassisch die ingenieurseitigen Anteile der Mathematik übernahm) geht also wieder zurück zur Mathematik, aus der sie kommt. Das Sprechen von Maschinensprache überlassen wir wieder den Maschinen selbst.
Diesen Trend beobachtet man eigentlich schon seit etwa einem Viertel Jahrhundert: In den 1970ern bis 1990ern war die Arbeit von Astronomen hauptsächlich (90% der Arbeitszeit) das Schreiben von Code, so dass man im Alltag zwischen FORTRAN-Kommandos bzw. im Kampf mit der Maschine, ein Programm zum Laufen zu bringen, manchmal beinahe zu vergessen drohte, dass man doch eigentlich das Universum verstehen wollte. In den frühen 2000ern begann ein Wandel und heute programmieren wir nur für wenige (entweder sehr alte oder sehr nah am Kernel zu entwickelnde) Spezialanwendungen in Dialekten von C, Fortran (oder gar Assembler), während das meiste in industriekompatiblem Python geschrieben wird. Das ist sprachlich schon ein ganzes Stück näher an natürlichen Sprachen.
Künstliche ersetzt nicht natürliche Intelligenz
Nichtsdestotrotz müssen junge Menschen natürlich erst einmal die Grundlagen lernen: So wie es in meiner Generation üblich wurde, dass Taschenrechner nur noch in der Grundschule verboten sind (damit man schon noch Kopfrechnen lernt) und man höhere Funktionen wie Sinus oder Logarithmus eben nur noch als Taste auf dem Taschenrechner kennenlernt. Dennoch muss man sie (wenigsten z.B. graphisch oder analytisch) verstehen, um sie richtig anwenden zu können. Das gleiche galt früher für Taschenrechner: man musste in den 1990ner noch wissen, ob das konkrete Gerät weiß, dass Punktrechnung vor Strichrechnung geht (heute können das alle), um den Input richtig eingeben können. Heute gilt dasselbe natürlich für Anfragen an jegliche SearchEngine (yahoo, duckduckgo, google etc.) oder eben künstliche Intelligenzen.
Gestern habe ich einmal die viel beschworene Anwendung von KI zur Lösung einfacher Programmieraufgaben ausprobiert. Ich wollte ein LaTeX-Problem lösen.
LaTeX ist eine Software für den professionellen Textsatz, die seit den 1980er Jahren speziell für mathematische Formeln entwickelt wurde und auch heute noch von großen Verlagen (Springer) eingesetzt wird. Sie ermöglicht mir schon als Autorin den Satz so zu gestalten, wie ich es für angemessen halte für mein Kommunikationsziel – gerade mit Blick auf das Setzen von Formeln oder Zitaten in Sprachen mit anderen Zeichensätzen (die nicht jeder Setzer spricht) … also jeglicher akademischer Publikationen – ist das ein immenser Vorteil! Die Springer-Lektoren für Deutsch müssen dann also nicht auch Mathematik und sämtliche anderen Sprachen sprechen, um Zitate in Arabisch, Chinesisch und Formel der Mathematik auch prüfen (lektorieren) zu können. Nun gibt es natürlich in der Zwischenzeit auch zahlreiche Dialekte von LaTeX und gerade für eine Vielzahl von Zeichensätzen sind die etwas schwerfälligeren Engines XeTeX bis LuaLaTeX sehr nützlich – die brauchen wir also in der Wissens(chafts)geschichte, weil sie sowohl Mathematik als auch zahlreiche Sprachen können.
Beispiel 1
Anfrage: Ich will eine neue Listenumgebung definieren und diese Liste am Ende ausgeben.
Perplexity hat es in den 5 freien Anfragen, die ich stellen durfte, nicht geschafft, mir einen lauffähigen Code hinzuschreiben. Es gab mir eine recht elegante einfache Lösung und ich habe ein (mir) neues \usepackage kennengelernt, aber die Lösung funktionierte bei mir nicht – vielleicht lag es an Lua. Die Engine erlaubt aber nicht, den gesamten Code (300 Zeilen) im Chat hochzuladen, sondern dazu hätte ich “file upload” nutzen sollen, was nur in der bezahlpflichtigen Version enthalten ist.
ChatGPT hat kein Limit und ich habe es wirklich sehr lange und hartnäckig probiert. Nachdem erste Anfragen nicht geklappt hatten, habe ich es (wie man es auch mit Studierenden täte) runtergebrochen und dann Ergänzungsfragen gestellt. Ich habe letztlich bestimmt 3 Stunden damit verbracht (netto gesprochen, also übern Tag verteilt; es war Samstag, also zwischendurch auch mal anderes gemacht), zirka zwei “beinahe”-Lösungen (also die fast genau taten, was gewünscht) erhalten und wiederum zwei neue \usepackages kennengerlernt.
Ergebnis: Ich habe zwar etwas gelernt und viele (wirklich interessante) Anregungen mitgenommen. Im Code verwende ich aber weiterhin die Lösung, die ich mit natürlicher Intelligenz für das Buch meiner Doktorarbeit gefunden hatte (und auf die keine der beiden KIs gekommen ist).
Beispiel 2
Ähnliche Aussagen habe ich von meinen Studierenden letztes Jahr gehört, wenn es um einfache Informatik-Aufgaben aus dem Grundkurs geht. Sowas wie “entwickeln Sie eine Huffman-Codierung für …”. Das schaffen die “Large Language Modelle” wie ChatGPT etc. noch nicht!
Man muss sich immer wieder vor Augen führen: Diese so genannten “künstlichen Intelligenzen” sind eigentlich Sprachmodelle!
Erste Version von ChatGPT hatten ihre Informationen selbst gespeichert, konnten also nur auf das Wissen zurückgreifen, das ihnen mitgegeben wurde. Diese gespeicherten Infos wurden dann in geeigneter Form zusammengefasst. Perplexity ist anscheinend mit einer Search-Engine verknüpft, durchsucht den öffentlich zugänglichen Teil des Netzes für die Anfrage und gibt dann sowas wie “wikipedia-Artikel xy” als “Quelle”. Wir haben oben gelernt, dass das keine Quelle im wissenschaftlichen Sinn ist, aber wir wissen wenigstens, woher die Info stammt und können dem nachgehen.
ChatGPT kann also chatten und wie ein Ehepartner, der nur oberflächlich zuhört, einen halbwegs sinnvollen Satz in einer natürlichen (oder künstlichen) Sprache als Antwort ausgeben, aber denken tut das Sprachmodell eben nicht!
Grundlagen hierfür sind Texterkennungen (nicht Textverständnis), um daraus dann Antworten zurückgeben zu können. Es gibt also einzelne Teilfunktionen der Maschine, die bestimmte Teilaspekte des Ganzen sehen und aufleuchten, wenn sie das Signal bekommen: eine Funktion sieht z.B. den fragenden Blick, die andere Teilfunktion die Denkpause beim Sprechen, die dritte Funktion hört, dass die Stimme am Satzende hochging (Frage), … aber keine der Funktionen hat “zugehört”. Die Ausgabe (Antwort) ist also nur das, was gerade gesagt wurde, nur mit anderen Worten oder mit einer Verneinung davor (beobachtet man übrigens auch häufig in der Politik).
Einer der frühen Informatiker Mitte des 20. Jahrhundert nannte dieses Verhalten (was heute “Künstliche Intelligenz” heißt) ein “Pandämonium“. Sein Vergleich war eine Ansammlung von Dämonen, die jeder allein strohdumm sind (nicht “intelligent”) und nur eine sehr spezielle Sache können (z.B. nur senkrechte Striche erkennen oder nur waagerechte oder nur Kreise…). Wannimmer ein Dämon das “sieht”, was er kennt, schreit er auf (denn “schreien” ist das einzige, was die strohdummen Dämonen können). An einer Zentralstelle (Satan – nein, nicht unbedingt eine der n sata-Festplatten) werden all diese Aufschreie gesammelt und je nach Anzahl der Schreie jedes Dämons entschieden, um welche Art von Input es sich handelt. Ob und inwiefern dies mit der Hauptstadt der Hölle in John Miltons “Paradise Lost” zu tun hat, wird die Zukunft entscheiden.
Also … insbes. nach den obigen Erfahrungen bleibe ich mit Blick auf meine Lebenszeit vorerst bei der “klassischen” (haha) Recherche mit Search Engines und Coding-Tipps auf Stackoverflow von echten Menschen. [DANKE da draußen! wer immer ihr seid…]
Für Recherche von Fachliteratur gibt’s ja auch digital zahlreiche Quellen, die nicht nur eine KI, sondern auch natürliche Intelligenzen lesen können:
“Facebook für Wissenschaftler”
Facebook (release 2004) ist die Online-Variante von Steckbrief-Büchlein. In meiner Generation waren Steckbrief-Büchlein neben Poesie-Alben in der Grundschule Mode, … und dann nochmals unter Teenagern. In der Grundschule wurde da ein kleines (1 Seite in Quadratformat oder DIN A5) persönliches Profil mit Sinnspruch (oder eben nur Sinnspruch) notiert, während die Teenager sowas wissen wollten, wie “wie sieht dein Traum-Typ aus” (da hab ich mich ausgeklinkt, weil das bei mir nie nach Äußerlichkeiten ging). Facebook machte diese auf Papier geschriebenen Infos dann leichter updatebar: plötzlich konnte man nicht nur einmal auf Papier kritzeln “ich bin keine Süße, und ich mag keine Schokolade”, sondern auch “heute gab’s köstliches Marzipan” und morgen “eigentlich mag ich keine Schokolade, aber diese spezielle weiße Zitronen-Schoki ist ok”.
In der Wissenschaft geht’s natürlich um andere Werte: Forschende profilieren sich (geben sich ein Profil) nicht mit Traumtypen und Schokolade, sondern mit ihren intellektuellen bzw. geistigen Vorlieben:
- Mit welchen Themen beschäftigt sich die Person?
- Welchem Fach ist sie zuzuordnen (wenn überhaupt)?
- welche Methoden wendet sie an?
- wo bzw. mit wem publiziert die Person?
“Facebook für Wissenschaftler” müsste also diese Werte adressieren – und genau das machen die Plattformen, auf denen die Mitglieder ihre Publikationen teilen. Zwei wurden etwa gleichzeitig 2007 released: das amerikanische “academia.edu” (link) und das europäische “ResearchGate.net” (link). Hier laden Forschende ihre Arbeiten hoch.
Das wichtigste: Es können und sollten auch unpublizierte Studien hochgeladen werden, um unpublizierbares Wissen weiterzugeben und künftige Publikationen vor der Publikation zu diskutieren:
- Poster (die sonst nur auf Fachtagungen zu sehen sind und danach im Müll landen) können so längerfristig gezeigt werden.
- Laborstudien/ Experimente, die nicht erfolgreich waren, können auch berichtet werden, so dass nicht jeder die gleichen Fehlschläge reproduzieren muss (gerade in der Medizinforschung sehr wichtig). Es setzt seit ~20 Jahren ein Umdenken ein, dass “negativ-Ergebnisse” eben auch Ergebnisse sind und publiziert werden müssen. Das ist aber erstens noch nicht bei allen angekommen und zweitens gibt es auch wirklich “Fails”, die nicht publiziert werden können (bzw. der Aufwand nicht lohnt), von denen man aber unmittelbare Kolleg:innen in Kenntnis setzen möchte – oder gar mit diesen diskutieren: vllt hat man ja nur ein Detail falsch gemacht, das jmd anders bereits gelöst hat…
- Zudem ist es in sehr kleinen Fächern interessant, einem/r bestimmten Kollege/in zu folgen, wenn man weiß, dass die Person in gleichen Fach bzw. zu ähnlichen Themen arbeitet.
Preprint-Server hat es natürlich schon früher gegeben (arXive seit 1991), aber dort gab es nur die Möglichkeit des Uploads und nicht des Kommentierens durch Kollegen: das war ja noch vor dem Web2.0! Die Max Planck Gesellschaft nutzt daher ResearchGate als Plattform für MPI-übergreifende fachliche Diskussionen und die EU-Kommission empfiehlt ebenfalls das Teilen von Ergebnissen auf ResearchGate.
So weit so gut … das sind also die Austausch- und Diskussionsplattformen für die Wissenschaft, bei denen Forschende selbst entscheiden, was sie teilen möchten. Zusätzlich gibt es Web-Crawler wie Google-Scholar, die sukzessive das Internet nach “Open Access”-Publikationen durchforsten. Dort kann man also zumindest einen Anteil der Publikationen einer Personen einsehen. Leider hinken die Humanities hier etwas hinter den Sciences hinterher, denn die “Open Access”-Initiative der Geisteswissenschaften kam erst 2002 (Budapest: BOAI) bzw. 2003 (Berlin), unterzeichnet von rd. 500 Instituten weltweit (Neuauflage bei Konferenz 2015). Zum Vergleich: Astronomie-Daten von Satelliten u.a. Weltraumteleskopen sind bereits seit den 1970ern in Datenbanken verfügbar und das Portal für Sterndaten+Publikationen über sie seit 1850 gibt es seit 1992 (SIMBAD, der Kataloge-Katalog ViZieR, das interaktive KartenTool Aladin … etc. … vom Centre des Données Stellaires des CNRS).
Sehr interessant. So wie ich das mal im Studium hörte, funktionieren neuronale Netze -also insbesondere unsere Gehirne- genauso. Gerade das Beispiel von horizontalen und vertikalen Strichen wurde damals für biologische Systeme behandelt.
Die These dann: Erst das Zusammenspiel von Milliarden von Neuronen ergibt Verständnis und Bewusstsein.
Nun also die Frage: Wo ist der grundsätzliche Unterschied zwischen KI und uns? Ist unser Bild von der Welt denn nur ein Frage der Skalierung?
Tjanun, ist es nicht meistens so, dass gute (erfolgreiche) Ingenieure sich von der Natur inspirieren lassen?
@Eilers
Unser Verständnis von uns selbst und unserer Umwelt ergibt sich aus biochemischen (!) Arbeitsstrategien unseres Gehirns.
KI arbeitet mit elektronischen (!) Rechenschritten.
D.h. die Mechanismen und Ergebnisse dieser Arbeitsprozeduren sind nicht vergleichbar!
In diesem Zusammenhang sei an das ´Teekessel´-Spiel erinnert – wo man Worte sucht, welche verschiedene Bedeutung haben. z.B. ein ´Schloss – kann a) ein Verschlussmechanismus für Türen, bzw. b) ein Wohnsitz von Adeligen sein.
D.h. bloß weil man ein Wort gleich schreibt, bedeutet es nicht das Gleiche.
Hinzu kommt, dass manche Worte keine eindeutige Bedeutung haben:
Z.B. wenn ich schreibe “In der Küche steht eine Schale mit Obst” – wird jede/r verstehen, was damit gemeint ist; ohne wirklich zu wissen was in der Schale ist.
Denn das Wort ´Obst´ ist nur ein ungenauer Überbegriff um damit verschiedene Früchte zu bezeichnen (Äpfel, Birnen, Pflaumen, usw. …).
Genau so ungenau wird der Begriff ´Bewusstsein´ verwendet!
Keno Eilers
“Wo ist der grundsätzliche Unterschied zwischen KI und uns?”
Der grundsätzliche Unterschied zwischen einem Menschen und einer künstlichen Intelligenz ist, dass die künstliche Intelligenz nur das wieder sagt, was schon gesagt worden ist. Sie hat ihre vielen Bezugsquellen und vereinigt die zu einer Gesamtaussage.
Ein Mensch kann grundsätzlich Neues erfinden, entdecken, schaffen. Das unterscheidet ihn von Allem was es im Universum gibt. Das Universum ist sich seiner nicht bewusst. Der Mensch ist sich seiner bewusst und er kann denken.
Im engeren, ursprünglichen Sinn denkt eine künstliche Intelligenz nicht.
Bezüglich ChatGPT verweise ich mal auf dieses Experiment:
https://scilogs.spektrum.de/hier-wohnen-drachen/chatgpt-versteht-die-relativitaetstheorie-nicht/
Eine Studie bzgl. Stackoverflow und KI hat ja kürzlich herausgefunden, dass ChatGPT dort über 50% falsche Antworten gegeben hat:
“Is Stack Overflow Obsolete? An Empirical Study of the
Characteristics of ChatGPT Answers to Stack Overflow Questions”
https://dl.acm.org/doi/pdf/10.1145/3613904.3642596
@Keno Eilers 10.06. 11:17
„Die These dann: Erst das Zusammenspiel von Milliarden von Neuronen ergibt Verständnis und Bewusstsein.“
Die Masse macht hier Unterschiede. Neulich gab es auf Spektrum.de einen Ausschnitts des Scans von der Verschaltung eines Kubikmillimeters menschlichen Gehirns. Das sah ziemlich kompliziert aus. Vermutlich kennen wir nur einige wenige Tricks, wie Nervenzellen verschaltet sein können, und diese wenden wir auch in der KI bereits an.
Ob hier jetzt alle Verschaltungsarten erfasst sind, die künstliches Bewusstsein bräuchte, dürfte fraglich sein. Aber vielleicht ist das Bewusstseinsprinzip ja doch so simpel, dass auch die aktuelle KI schon ein kleines Bewusstsein, vergleichbar z.B. mit dem von Insekten, haben kann.
Auf jeden Fall dürfte es weiterhelfen, wenn man hier noch ganz andere Verschaltungstricks entdecken könnte, um sie wiederum in der KI einzusetzen. Die Masse selber macht aber auch schon was, das dürfte bereits klar sein.
Meine Frage an die “Künstliche Intelligenz”
Was bedeutet: Du sollst nicht töten?
AI-Antwort von …perplexity.ai:
Das 5. Gebot “Du sollst nicht töten” ist eine ungenaue Übersetzung des hebräischen Originals. Die korrekte Übersetzung lautet “Du sollst nicht morden”.
Unterschied zwischen “töten” und “morden”
Das hebräische Wort “razach” bedeutet nicht einfach nur “töten”, sondern meint speziell das vorsätzliche, unrechtmäßige und gewaltsame Töten eines Menschen aus niederen Beweggründen wie Habgier, Rache oder Mordlust. Es geht also um den Mord im engeren Sinne. Die Bibel erlaubt in bestimmten Situationen das Töten, z.B. in Notwehr, im Krieg oder bei der Vollstreckung der Todesstrafe. Das 5. Gebot verbietet jedoch das Morden aus eigennützigen Gründen und schützt damit das Leben des Einzelnen vor Willkür und Gewalt.
Weitergehende Bedeutung
Darüber hinaus verbietet das Gebot nicht nur die direkte Tötungshandlung, sondern auch die billigende Inkaufnahme des Todes eines anderen Menschen. Wer den Tod eines Unschuldigen nicht verhindert, obwohl er dazu in der Lage wäre, macht sich ebenfalls des “Mordens” schuldig. Das Gebot schließt somit jegliche Handlungen ein, die direkt oder indirekt zum Tod von Menschen führen können, wie z.B. Abtreibung, Sterbehilfe oder soziale Ungerechtigkeit, die Menschen ihre Lebensgrundlage entzieht.
Zur Kenntnisnahme und Selbstanalyse
»Du sollst nicht töten«
Die Zehn Gebote stehen in der Bibel, im Alten Testament.
Doch diese haben nicht die universelle Bedeutung respektive Aussage, die insbesondere die Kirche ihnen propagandistisch unterstellt respektive den Gläubigen, trotz besseren Wissens, vermittelt. Denn… “Jesus beschränkte seine Gruppe der Erretteten streng auf die Juden, in dieser Hinsicht stand er in der alttestamentlichen Tradition, eine andere kannte er nachweislich nicht. „Du sollst nicht töten“, bezog sich ausschließlich auf Juden. Es hieß vielmehr ganz gezielt: Du sollst keine Juden töten. Die gleiche Ausschließlichkeit beinhalten alle Gebote, in denen von deinem «nächsten« oder »deinem Nachbar« die Rede ist. »Nachbar« bedeutet Mitjude.“…
Quelle: Der Gotteswahn von Richard Dawkins, Kapitel: Liebe deinen Nächsten, Seite 353
Weiter im Bibel-Text: „Gleich nachdem er den Israeliten gesagt hatte, sie sollen nicht töten, befahl er ihnen, zu töten. Die Israeliten sollten in den Krieg gegen die Kanatiter ziehen um alle zu töten, auch die Frauen und Kinder und auch das Vieh.“
Im Kontext heißt das „biblische“ »Du sollst nicht töten« folglich nur: »Du sollst keine Mitglieder deiner eigenen Sippe töten«. So hat das Gott damals gemeint, so hat er es praktiziert, mit der Versklavung und Ermordung von Nicht-Israeliten hatte er über die gesamte Bibel hinweg nie Probleme gehabt.
Allgemeiner betrachtet: Ob Kreuzzüge oder moderne Kriege, es gilt grundsätzlich: Soldaten ziehen exemplarisch mit christlicher Begleitung respektive kirchlichen Segen in den Krieg um zu töten, es gilt nur: sie sollen nicht ihre “Glaubensbrüder” töten, den Feind schon.
Mit diesem Frage-Beispiel wird das ganze Informations-Elend und die Gefahr der “Künstlichen Intelligenz” aufgezeigt. “Künstlicher Glaube” wäre die richtigere Bezeichnung als Oberbegriff für diese faktenfeindliche Propaganda.
Weiteres Beispiel:
Der Begriff “Künstliche Intelligenz” ist irreführend und bei genauer Betrachtung falsch, weil auch komplexere und verschachtelte Algorithmen, die auf (informations-)mathematischen Verknüpfungen aufbauen, nachweislich keine allgemeinmethodischen Lösungswege generieren. Tatsache ist: Algorithmen können nur das, was man ihnen vorher einprogrammiert hat. Interdisziplinäre Weitsicht ist mitunter für (die) “KI” schon ein riesiges, unlösbares Problem mit fatalen Folgen.
Beispiel: Ein Informatiker, der Kurse in Python und Pandas anbietet, wurde von Meta/Facebook ohne nachvollziehbare Begründung lebenslang bei der Schaltung von Werbung gesperrt. Hintergrund des KI-Interpretations-Irrtums: Python ist eine Programmiersprache. Pandas ist eine Python-Programmbibliothek zur Analyse und Darstellung statistischer Daten. Die Annahme, dass seine Werbung lebende Tiere zum Inhalt habe, beruht(e) auf “KI”, nicht auf der Einschätzung eines Menschen. Als er dagegen Beschwerde einlegte, wurde seine Beschwerde wiederum von “KI” beantwortet – und zwar im Ergebnis genauso sinnfrei. Ohne hier viele Worte zu machen: »KI« ist ein reines Glaubens- und Unterdrückungsinstrument. Es wird u.a. suggeriert, dass die Mächtigen aus Staat und »Technologischer Industrie« jetzt noch mächtiger sind und die Untertanen die »KI«-Macht “ehren und fürchten sollen”. Das was die »KI« propagiert sind die neuen Denkgesetze. Um das zu erreichen, muss erst einmal dem Volk jeden Tag mantramäßig eingehämmert werden, wie toll »KI« ist. Das geschieht nun täglich in Nachrichtensendungen, Produkt- und Dienstleistungs-Werbungen etc. “rund um die Uhr auf allen Kanälen”.
Abermals verweise ich auf die Science Fiction der 1960er:
Raumpatrouille Orion – Folge 3 – Hüter des Gesetzes
https://www.youtube.com/watch?v=KdFON6jQyyc
@Freyling 11.06. 00:58
„Das was die »KI« propagiert sind die neuen Denkgesetze.“
Mal gucken, was wirklich draus wird? Immerhin fassen die LLMs sehr gut zusammen, und haben einen beachtlichen Horizont. Missbrauchspotential ist aber wohl vorhanden. Man muss wohl nicht alles den Konzernen überlassen, sondern kann auch unabhängige LLMs in Opensource bauen, das könnte helfen.
Besser als die sozialen Netzwerke der Konzerne scheint es allemal zu sein. Das sieht mir aktuell fast wie ein Lichtblick aus.
Hallo N.
Zitat:
Ein Mensch kann grundsätzlich Neues erfinden, entdecken, schaffen.
Das unterscheidet ihn von allem was es im Universum gibt.
Das Universum ist sich seiner nicht bewusst.
Ende des Zitats.
Um etwas grundsätzlich Neues zu erfinden, geht man so vor:
Man kombiniert beliebige Bausteine auf viele unterschiedliche Arten.
Dann entfernt man alle nicht geeigneten Kombinationen.
In der Biologie nennt man das Mutation und Selektion.
Auch ein Mensch verwendet ihm bekannte Bausteine zum Bau von etwas Neuem.
Im Extremfall kombiniert er einzelne Buchstaben zu neuen Worten,
oder einzelne Worte zu neuen Sätzen.
Was die Erfinder oft stört, ist das ihre neue Erfindung
dann doch nicht funktioniert, weil die Physik dagegen ist.
Alle diese Vorgänge können auch von einem Computer durchgeführt werden.
Ein Bewusstsein ist für diese Tätigkeit nicht erforderlich.
Auch beim Menschen kommen oft neue Ideen, Problemlösungen und
Erfindungen aus den Leistungen von unbewussten Denkvorgängen.
—–
Das Problem der heutigen Computer ist, dass sie sich in
einer Welt der Worte bewegen, ohne die ständige Wechselwirkung
mit der physikalischen Realität.
Das Wort “Tisch” kann man erst in allen Konsequenzen verstehen,
wenn man ihn selbst anfassen kann, was also begreifen bedeutet.
Zahlreiche Bilder von Tischen haben diese Wirkung nicht.
Im rechten Teil dieses Bildes sind solche Begriffs-Netzwerke dargestellt:
http://s880616556.online.de/abstrak7.PNG
Karl Bednarik,
das ist eine kurze und leicht verständliche Abhandlung über die Evolution.
Die tote Materie gehorcht nur den Gesetzen der Physik.
Die belebte Materie tut das auch aber eben nicht nur.
Du sagst ,die Computer spiegeln die Natur auf sprachlicher Ebene.
Das erspart dem Menschen viel Arbeit.
Aber der Computer kann nichts Neues erfinden, wenn sein Programm das nicht vorsieht.
Das ist wie mit der künstlichen Intelligenz. Die kann nicht selbständig denken. Die ist abhängig von dem, was schon gedacht worden ist.
Sie kann sich z. B. nicht etwas ausenken , was es nicht gibt.
Die meisten Menschen können das nicht, versuch es mal ! Zeichne auf , was es nicht gibt !
Und jetzt sind wir beim Internet. Das ermöglicht uns nur alle Wissensquellen anzuzapfen.Neues kann das Internet nicht finden. Und was wir im Internet finden, das stammt wiederum von Menschen, die Fehler machen können.
Also , was wir im Internet lesen , das können wir nicht ruhig nach Hause tragen.
Gut das Beipiel mit dem Tisch. Das zeigt auf, was den Menschen von einer KI unterscheidet. Die KI kann keine Gefühlserfahrungen machen. Und die sind es doch, die das Leben lebenswert machen.
Hallo N.
Um ein völlig unvorhersehbares Verhalten zu erzeugen, kann man
einen nicht-deterministischen Zufallszahlengenerator verwenden, der
zum Beispiel das thermische Rauschen eines Widerstands verwendet.
Jede dieser Zahlenfolgen daraus ist völlig neu.
Das menschliche Gehirn hat auf Grund der Unzuverlässigkeit seiner
Bauteile ohnehin ein teilweise nicht-deterministisches Verhalten,
was man durch hohen Alkoholkonsum noch verstärken kann.
Natürlich verwenden auch Menschen als Bauelemente von ihren neuen
Kombinationen Worte, Bilder und Vorgänge, die sie von früher kennen.
KI-Modelle wie ChatGPT können ohne weiteres völlig falsche
Antworten erfinden, die auch noch überzeugend aussehen,
und die natürlich völlig neu sind.
https://www.spektrum.de/news/maschinelles-lernen-chatgpt-wird-immer-plappern/2090727
Das AlphaGo Zero genannte Programm brachte sich das Spiel Go
selbst bei, und ist nun von Menschen und Maschinen völlig unbesiegbar.
Alle Strategien von AlphaGo Zero sind völlig neu.
Natürlich kann man sich auch irgendwelche neuen Kombinationen
ausdenken, die es nicht gibt, und sie dann von DALL-E zeichnen
lassen, wodurch sie gleich viel echter wirken.
http://s880616556.online.de/BURR15.jpg
Die surrealistischen und dadaistischen Maler erzeugten ihre Bilder
durch das zufällige Tropfen, Sprühen und Schütten ihrer Farben.
Ich gebe ein weißes Blatt Papier ab, und nenne es:
“Quantenfluktuation im unechten Vakuum.”
Die eigentliche Fähigkeit besteht darin, solche Bilder teuer
zu verkaufen.
No. 5, 1948, von Jackson Pollock, abstrakter Expressionismus,
140 Millionen US-Dollar.
Karl Bednarik
“Quantenfluktuation im unechten Vakuum.”
Das ist wie die Null in der Mathematik. Eine leere Menge. Die gibt es nur einmal.
Noch etwas was es nicht gibt !
Damit Sprache einen Sinn bekommt, muss jedem Substantiv etwas in der Realität entsprechen. Also diesesmal keine leere Menge abgeben.
Eine künstliche Intelligenz kann natürlich eine sinnleere Buchstabenfolge erzeugen. Sie kann sogar eine eigene Logik erzeugen. Und wenn der Quelltext dazu nicht einsehbar wird, dann entsteht tatsächlich ein Paralleluniversum , das nur in der Logik existiert.
Jackson Pollock war ein Schmierer, der oft in der Farbe gestanden hat. Vielleicht ist er deshalb so früh gestorben.
@ all, Karl Bednarik, N,
Besonders „in Mode“ scheinen die „Chat“ Systeme. Sie sind spezialisiert auf natürliche Sprache, was sie für einen großen Anwenderkreis höchst attraktiv macht. Sie sind ein „Sonderfall“ der KI, aber nicht wirklich „kreativ“. In der Hauptsache sind es vorzügliche „Zitiermaschinen“.
„Künstliche Kreativität“ zu entwickeln, das ist die Frage und ich würde es so wie Sie (@ Karl Bednarik) sehen.
Man könnte sogar noch abstrakte mathematische Konzepte („ähnliche“ Gleichungen) einbinden, wie es z.B. auch Physiker gemacht haben, um so etwas wie „Kreativität“ zu generieren. Also „Muster“ (als Gleichungen) von einem “Gebiet“ auf andere „Gebiete“ zu übertragen („Dualismus“: z.B. schwingende Feder – el. Schwingkreis, Spule – Kondensator,… ).
Man könnte die KI „veranlassen“, nach „Gleichungen in Mustern“ zu suchen und danach umgekehrt systematisch nach anderen „Mustern“ zu suchen, die z.B. mit in der Struktur gleichen „Gleichungen“ korrespondieren? Wie z.B. bei den „Spule – Kondensator“ Gleichungen.
Nicht deterministische Zufallszahlengeneratoren könnten Gleichungen generieren, nach denen man systematisch in Mustern sucht um so auf neue Zusammenhänge zu stoßen.
Selbst auf einen „Verdacht“ hin, dass die Gleichungen einander entsprechen könnten. Es wäre dann normale wissenschaftliche Arbeit zu erkunden ob es sich tatsächlich so verhält?
Der „Vorteil“ des „Bewusstsein“ beim Menschen ist, dass „Empfindungen“ bei der „System eigenen Informationsverarbeitung“ in den „Bewertungsvorgang“ eingebunden werden können, letztlich die Existenzfähigkeit von Tieren und Menschen sichern. Entweder damit man sich vor Gefahren in Sicherheit bringt, oder einfach das generative Verhalten sichert….
Es ist die Frage, ob und wann es die Physiker/Mediziner schaffen das „Empfindungsphänomen“ zu erklären.
Die KI Computer sollten sich mehr in der Welt der „Gleichungen, Muster, Mechanismen und Gesetzmäßigkeiten“ bewegen, um die Wechselwirkung mit der physikalischen Realität besser zu „verstehen“. Ich finde es nicht falsch, wenn man die Computer von „Empfindungen“ eher fernhält.
Möglicherweise würden die Computer sonst den „lieben Tag lang“ immer nur an „das Eine“ denken….
Elektroniker.
Ein Computer ist nur eine sehr komplexe Rechenmaschine, die nur das kann, was die Software erlaubt.
Davor brauchen wir keine Angst zu haben.
“Möglicherweise würden die Computer sonst den „lieben Tag lang“ immer nur an „das Eine“ denken….”
wir müssen aber davor Angst haben , dass die Menschen dies glauben und einem Computer zutrauen.
Wie es Frau Hoffmann so treffend formuliert hat :”Man muss sich immer wieder vor Augen führen: Diese so genannten “künstlichen Intelligenzen” sind eigentlich Sprachmodelle! ”
Aber wer weiß das schon !
Und wir müssen Angst davor haben, dass eine KI als Referenz bei Entscheidungen herangezogen wird.
Wenn also der Arzt der Zukunft die KI befragt, ob der Blinddarm heraus muss oder nicht.
Oder der Richter bei einem Indizienprozess die KI befragt, was sie dazu meint.
Bei unklaren Steuerverfahren kann der Richter ja jetzt schon das Einkommen des Schuldner schätzen, z.B. bei den Trinkgeldern.
Genau: Ein Sprachmodell kann grammatisch richtige Sätze ausgeben. aber es kann eben nicht denken – und es kann noch nicht einmal zuverlässig zitieren: das klappt oft, aber auch nicht immer. Manchmal “halluzinieren” die ChatBots auch, d.h. sie erfinden Zitate, Aussagen oder Personen, die etwas gesagt/geschrieben haben sollen.
Kürzlich habe ich gelernt, dass man wohl explizit auffordern soll, nicht zu halluzinieren, wenn man valide Antworten will – hoffe, das hilft!
@ N
@ Susanne M. Hoffmann
Zitat: “Möglicherweise würden die Computer sonst den „lieben Tag lang“ immer nur an „das Eine“ denken….”
Das war als Gag gemeint, falls es gelingen sollte „Empfindungsmechanismen“ zu implementieren.
Zitat: „Wie es Frau Hoffmann so treffend formuliert hat :”Man muss sich immer wieder vor Augen führen: Diese so genannten “künstlichen Intelligenzen” sind eigentlich Sprachmodelle!“
Als „Sprachmodelle“ und für Recherchen sind sie derzeit sehr erfolgreich.
Aber man möchte halt, dass KI auch möglichst kreativ wird. Dass sie möglichst auch Antworten auf Fragen findet, wo wir noch keine Antwort haben.
So scheint es zweckmäßig, nicht nur die „verbale Denke“ des Menschen nachzuahmen, sondern auch die „kreative Denke“. Menschen haben ohnehin Möglichkeiten, wie z.B. „Brainstorming“ gefunden um das kreative Denken zu fördern.
Bei medizinischen Fragen, wie z.B. der Auswertung von MRT Bildern, hat die KI nur den Vorteil, dass sie Erkenntnisse aus Millionen von Bildern die Tausende Medizinern weltweit gesammelt haben, „vereinen“ kann. Computer „arbeiten“ unermüdlich Tag und Nacht, nur gelegentlich brauchen sie den Servicetechniker.
Ärzte müssen Schlafen, Essen und Trinken und auch gelegentlich an „das Eine“ denken….
“man möchte halt, dass KI auch möglichst kreativ wird.” … Nein, also das möchte man eigentlich nicht, sondern das sollte Domäne des Menschen bleiben.
Obwohl, bei der aktuellen PISA-Studie wäre man da nicht sicher: in kreativem Denken schneiden unsere Schüler:innen ja eher nicht so gut ab. Andererseits: Ist das vllt. ein Zeichen der “Generation Helikopter-Eltern”? Unsere Kinder sind schlecht in X, also bauen wir eine Maschine für X… dass dies dann später ein Problem wird, wenn die jetzigen Kinder in der Eltern-Generation sind, soweit denkt erstmal niemand. 🙁
Wenn es nach mir ginge: Ich brauche Computer (Maschinen) für alle “langweiligen” Tätigkeiten, die eben nicht viel Denken und keine Kreativität erfordern. Zum Beispiel finde ich es total nervenaufreibend, wenn man nach der Niederschrift eines Buchs oder Fachartikels hinterher noch das Literaturverzeichnis aufräumen muss (die Infos könnte eine Maschine, ein Crawler z.B., einfach aus den Datenbanken des Internet ziehen) oder – noch schlimmer – an den “house style” des Verlags/ Journals anpassen soll (das kann LaTeX mit einer Literaturdatenbank im Hintergrund automatisch). Solche Aufgaben finde ich extrem ärgerlich und sie rauben mir die letzten Nerven, bringen mich zur Weißglut. Die kreative Arbeit, Forschungsfragen zu stellen, nach den Antworten zu suchen, Methoden zu entwickeln, und das alles dann aufzuschreiben und zu bebildern… diese kreative Arbeit mache ich gern selbst und lasse ich mir ungern nehmen.
Glücklicherweise sind Menschen verschieden – aber stupide Fließband-Arbeit tut vermutlich langfristig niemandem gut, während das Nutzen von Maschinen für diese eben die Kreativität erfordert, die wir besser selbst entwickeln sollten. Jemand wird schließlich auch in Zukunft die Maschinen warten und weiterentwickeln müssen.
@ Susanne M. Hoffmann 19.06.2024, 07:21 Uhr
Vom Standpunkt „des Mensch sein“ haben Sie völlig recht. Man möchte halt nicht, dass einem womöglich eine Maschine „über den Kopf“ wächst….
Ich bin extrem neugierig. Sehe dass es „unendlich“ viel zu erkunden gäbe. Maschinen auch mit KI das Potential haben, uns Menschen, aus den bekannten Gründen, bestens unterstützen könnten.
Auch wenn wir „geglaubt haben“, immer gegenüber Maschinen im Vorteil zu sein. Maschinen wurden schneller, konnten besser Rechnen, Schach und Go spielen, Prozesse steuern,….
Hat ein „Mensch“ ein Problem erkannt, dass Maschinen „unmöglich“ lösen könnten, so hat sich ein Entwickler „hingesetzt“ und das Problem mehr oder weniger schnell gelöst, sodass die Maschine danach besser war als der „beste Mensch“. Sicherlich wird es auch Probleme geben, wo wir uns „schwer tun“, uns womöglich die Zähne „ausbeißen“….
Selbst wenn mir klar ist, dass Wissen auch gefährlich sein kann…., aber ich würde mir gerne auch bei der Kreativität „helfen“ lassen.
Jedenfalls dürften Menschen (Völker) die das Nutzen, einen uneinholbaren Vorsprung an Wissen generieren.
Man müsste regelrecht ein weltweit geltendes Gesetz postulieren, lieber „dumm“ zu bleiben…
Eher dürfte es so kommen, dass wir, wenn wir Pech haben, uns selbst sogar mit KI vernichten könnten. Aber das war schon immer so….
Es dürfte vom individuellen Menschentyp abhängen, – aber stupide Fließband-Arbeit wurde zumindest früher, auch von Menschen geschätzt, weil sie während der Arbeit z.B. Musik hören und an ihre Familie denken konnten, die Arbeit lief „locker“ nebenher und man konnte Geld verdienen…
Selbst bei der Wartung komplexer Maschinen ist es mitunter so, dass die Maschine sozusagen den Technikern ihr Problem samt Lösungsoptionen mitteilt. Mein Mini Cooper hat sich sogar ohne mein Zutun in „seiner“ Werkstatt angemeldet. Die haben mich dann per Internet um eine Terminvereinbarung gebeten…
Ein Unterschied dürfte noch sein, dass sich Patienten im Krankenhaus bei den Ärzten und Krankenschwestern herzlich bedanken, die Techniker müssen noch ohne „Dankbarkeit“ auskommen…
In der Physik besagt das Kausalitätsgesetz,
dass es keine Wirkung ohne Ursache gibt.
Ein Computer oder ein Gehirn tut oder denkt nur dann etwas,
wenn er/es vorher eingebaute oder angeborene Ziele bekommen hat.
Beim Erreichen der Ziele gibt es dann bei Computern eine
Bewertungsfunktion, oder bei Lebewesen, angenehme Empfindungen.
Völlig freie Computer oder Gehirne tun nichts und denken nichts.
Das habe ich mir hier überlegt:
https://www.e-stories.de/view-kurzgeschichten.phtml?23749
Karl Bednarik,
das Gesetz von Ursache und Wirkung ist die Grundlage des Materialismus.
Der lässt nur das gelten, was man messen und beweisen kann.
Bei geistigen Dingen, z.b. ein Gedicht, ein Musikstück einem Sinneneindruck versagt diese Form von “Welterklärung”, weil man eben nicht erklären kann, warum ein Mensch nach dem Lesen eines Buches Selbstmord begeht.
Beispiel “Die Leiden des jungen Werther ” von Goethe.
Das geistige Universum ist viel mächtiger als das logisch physikalische Universum.
In der Universalbibliothek von Karl Laßwitz befindet sich alles, was je aufgeschrieben wurde und noch aufgeschrieben werden wird !.
Diese Biliothek hat einen Umfang von 10 hoch 2 Milliarden Büchern. Wenn jedes Buch nur so groß wäre wie ein Sandkorn, würde das gesammte Universum nicht ausreichen, diese Bibliothek aufzunehmen.
Modern formuliert, Phantasie toppt die Wirklichkeit, oder Geist steht über Materie.
Die Bibel sagt es noch einfacher: Im Anfang war das Wort und das Wort war bei Gott und Gott war das Wort.
@Elektroniker: Es geht mir nicht darum, dass mir eine Maschine über den Kopf wachsen könnte, sondern dass ich meinen eigenen Kopf gern benutzen möchte – und zwar nicht nur zum Haare schneiden!
Gesunde Menschen haben Freude an der Benutzung ihres Gehirns – naja, zumindest seit der Steinzeit viele Generationen lang. Aktuell bin ich mir da nicht bei allen sicher (besonders mit Blick auf Bildungsniveau und PISA Studie).
Ich glaube, wir schließen jetzt diese Diskussion ab, denn sie führt nicht weiter.
Frau Hoffmann,
Das hat mir gefallen: “Gesunde Menschen haben Freude an der Benutzung ihres Gehirns”.
@ Karl Bednarik 20.06.2024, 06:14 Uhr
Zitat: „Ein Computer oder ein Gehirn tut oder denkt nur dann etwas,
wenn er/es vorher eingebaute oder angeborene Ziele bekommen hat.
Beim Erreichen der Ziele gibt es dann bei Computern eine
Bewertungsfunktion, oder bei Lebewesen, angenehme Empfindungen.
Völlig freie Computer oder Gehirne tun nichts und denken nichts.“
Ich sehe vieles so wie Sie es in ihren Texten beschreiben.
Ein Computer oder Gehirn braucht zunächst ein „Startsignal“ damit es seine Programme „abarbeitet“. Ein Gehirn kann zwar auch von selbst starten, wenn z.B. ein (empfindliches) Neuron triggert und die „Signal verschiebereien“ einleitet, aber auch Inputsignale (von der Sensorik) können derartiges bewirken. Die Gatterfunktionen, wie Sie in Ihren Link angedeutet haben, spielen natürlich eine wichtige Rolle….
Bei den Zielen z.B. würde mich interessieren, ob Sie auch an „indirekte“ Ziele, die sozusagen ein „Zufallsgenerator“ als „codierte Zufallszahl“ generiert hat, denken. Z.B. er generiert die Zahl 1010 (Postleitzahl) und das Ziel wäre Wien innere Stadt…
Natürlich könne man auf diese Art auch „Szenarien“ und „Mechanismen“ generieren. Das allermeiste „zufällig generierte“ ist „Blödsinn“, aber von den unendlich vielen Möglichkeiten könnte auch allerhand „Nützliches“ und extrem selten, sogar „Sensationelles“ dabei sein.
In der Evolution dürften es zunächst chemische Prozessketten gewesen sein, die „Szenarien“ und „Mechanismen“ generiert haben. Aber extrem „sensationell“ dürften die DNA mit ihren Mechanismen, richtiggehend systematische „Zufallsgeneratoren“, die unglaublich viele Lebensvarianten („Kambrische Explosion“) generiert haben, gewesen sein.
Ich könnte mir vorstellen, dass in der „Variablenkette von 0 bis unendlich“ noch allerhand „Sensationen“ vorhanden sind und nur Computer sind ausreichend „geduldig“ um danach zu suchen. Bewertungen könnten einerseits möglichst von Computern erfolgen, aber auch von Wissenschaftlern…
Hallo an alle.
Im Prinzip handelt es sich dabei um
Steuerungs- und Regelungstechnik:
Zum Beispiel:
Sollwert: Der Magen soll voll sein.
Istwert: Der Magen ist leer.
Soll-Ist-Vergleich: Hunger.
(Vermeide unangenehme Empfindungen.)
Stellwert: Nahrung suchen.
(Verwende Informationen zur Nahrungs-Suche.)
—–
Zu Kurd Laßwitz und Die Universalbibliothek:
Eine neunstellige Digitalanzeige ohne Komma kann
eine Milliarde unterschiedliche Zahlen anzeigen.
Natürlich ist diese Milliarde Zahlen keineswegs
in dieser Digitalanzeige enthalten.