Künstliche Intelligenz schreibt das beste Kabarett
Sicher habt Ihr schon das mediale Gewitter mitbekommen, das Googles Chatbot LaMDA verursacht hatte: Der Google-Mitarbeiter Blake Lemoine hatte mit LaMDA Gespräche geführt und dadurch eine menschliche Seele in der Maschine entdeckt.
Blake Lemoine selbst hat gesagt, dass er diese Überzeugung nicht als Wissenschaftler gewonnen habe, sondern in seiner Eigenschaft als Priester. Hier schreibt The Washington Post, dass Lemoine für diese Überzeugung vielleicht prädestiniert sei: Er wuchs in einer konservativen christlichen Familie auf einer kleinen Farm in Louisiana auf, wurde als mystischer christlicher Priester ordiniert und diente in der Armee, bevor er Okkultismus studierte.
Trotzdem müssen wir seit zwei Wochen Schlagzeilen über uns ergehen lassen wie: “Chatbot mit Gefühlen. Google-Entwickler schlägt Alarm – und wird beurlaubt.”
Lachen musste ich gestern, als ich in Blake Lemoines Blogbeitrag “What is LaMDA and What Does it Want?” bei Medium las, wie er sich über die leitende Angestellte von Google Jen Gennai beschwerte, weil sie seine “experimentellen Beweise” ignoriert hatte: Sie (Jen Gennai) glaube nicht, dass Computerprogramme Menschen sein können, und diese Meinung werde sie auch nie ändern. “Das ist keine Wissenschaft”, schreibt Lemoine. “Das ist Glaube.” 🙂
“Experimentelle Beweise” für LaMDAs menschliche Seele sind für Lemoine seine Gespräche mit diesem Chatbot, der mit Abermillionen menschlicher Gespräche darauf trainiert worden war, menschliche Gespräche perfekt nachzuahmen. Im übrigen legt der Mensch mit seiner Frage oder Anmerkung einem solchen Chatbot seine Antwort “in den Mund”.
In der nächsten Folge der K.I. Krimis unserer SRH Fernhochschule im Juli 2022 werde ich ausführlich erklären, warum Chatbots keine Gefühle haben. Hier verweise ich nur kurz auf die Tweet-Reihe des Deep-Learning-Pioniers Yann LeCun. In diesen Tweets beschreibt LeCun knapp und prägnant den Stand der heutigen KI. In meinem letzten Blogbeitrag hier “K.I. Krimis: Kann Künstliche Intelligenz Bewusstsein haben?” und in der vorletzten Folge unserer K.I. Krimis habe ich mich mit dem Thema auch beschäftigt. In der letzten Folge der K.I. Krimis ging es übrigens um das generative OpenAI-Modell DALL·E 2. Darin versuchte ich die Frage zu beantworten: “Kann Künstliche Intelligenz kreativ sein?“
Meine Meinung zu Blake Lemoines “experimentellen Beweisen” ist: Wenn Gespräche mit einem Chatbot experimentelle Beweise für menschliche Empfindungen und das Bewusstsein dieses Chatbots sind, dann sind die Filme “Piraten der Karibik” experimentelle Beweise dafür, dass Johnny Depp in seinem wahren Leben Captain Jack Sparrow ist.
Hier denke ich wie Jen Gennai und Google. Bin nur etwas verwundert, wie das Irrationale in der heutigen Welt immer lauter um sich greift. Dass ein Priester in einer Maschine eine Seele entdeckt, ist nicht ungewöhnlich, doch dass Medien dann in einem solchen Ausmaß Ängste über Künstliche Intelligenz (ein mathematisches Werkzeug) schüren, ist schon verwunderlich.
Gerechterweise muss ich zugeben, dass The Washington Post die “Entdeckungen” von Blake Lemoine sehr skeptisch sieht. Das halten leider viele andere Medien anders, die sich von dem Artikel in The Washington Post haben inspirieren lassen. Denn dieser Artikel war der Schmetterling, der das mediale Weltgewitter über die Seele in der Maschine in den Gang setzte.
Was haltet ihr von Chatbots mit Gefühlen?
“Träumen Androiden von elektrischen Schafen?”
Besser nicht, denn mit solchen allzu menschlichen Gefühlen nach Idealvorstellungen fängt das Dilemma an, wo der Android meint es wäre besser wenn alles elektrifiziert wäre!?
🙂
Haben denn Menschen Gefühle – oder bildet das Gehirn sich das bloß ein?
Gefühle kann man noch immer nicht neurologisch messen, sie sind ein rein psychologisches Konzept. Der Unterschied zwischen wirklich guten Chatbots und uns dürfte am Ende kleiner sein, als uns gefällt.
Vinton Cerf (Erfinder von TCP/IP) berichtet in seiner SC21-Keynote wie er das fehlende Verständnis eines Sprachmodells im Selbstversuch enlarvte: er forderte es auf, jeden Satz, den es äusserte mit einem Klammeraffen abzuschliessen. Das klappte trotz mehrfacher Aufforderung nicht. Das einzige was das Sprachmodell tat, war sich formgerecht zu entschuldigen und wortreich Ausflüchte zu ersinnen, warum es dies nicht tun konnte.
Vinton Cerf erklärt das im verlinkten Video so (sinngemäss):
Genau! Was Vinton Cerf sagt, beschreibt sehr gut auch die Funktionsweise der großen Transformer-Sprachmodelle, die momentan die vielversprechendsten Modelle des Deep Learning sind.
Martin Holzherr,
Entschuldigung, dass ich mich einmische……..“versteht rein gar nichts“
Jetzt wird es spannend. Was bedeutet „verstehen“ ???
Die Absicht erkennen ? Den richtigen Schluss daraus ziehen ? Eine Einsicht gewinnen? Etwas lernen ?
In der Schule gibt es den „Aha-Effekt“. Ein Schüler schreit es laut heraus, Verstehen ist mit einer Emotion verbunden. Verstehen ist auch ein sinnliches Erlebnis, es dient dem Abbau von Spannungen.
Man könnte vermuten, die Aufgabe des Gehirns ist nicht nur passiv zu denken, als Verarbeitung von Erlebnissen, sondern das Gehirn denkt im voraus ohne unser Zutun, immer, es denkt immer , so wie unser Herz immer schlägt,
Und wenn es keine Synthese zwischen den einzelnen Gedanken findet, dann sucht es den fehlenden „Link“ es arbeitet, und es baut dabei eine Spannung auf. Man sieht es den geistig arbeitenden Menschen an, man sieht es an den Falten.
Und jetzt übertragen auf eine KI. Man müsste sie so programmieren, dass sie auch immer sucht, noch ohne Ziel, und wenn sie irgendwie einen Link zwischen zwei Daten herstellen kann, dann tut sie es, und ab einer gewissen Komplexität wird die KI das „Konstruierte“ Nachbauen, mal sehen was dann geschieht !!!
@fauv (Zitat): „ Was bedeutet „verstehen“ ???
Richard Feynman sagte dazu: “WHAT I CANNOT CREATE, I DO NOT UNDERSTAND” oder zu deutsch: WAS ICH NICHT SCHAFFEN KANN, VERSTEHE ICH NICHT.
Das ist die Antwort eines Physikers, der es ganz genau wissen will. Angewandt auf ein Auto bedeutet es: der Autofahrer versteht das Auto nicht wirklich. Nur derjenige, der das Auto selbst aus allen Einzelteilen zusammensetzen kann, der versteht es.So streng wollen wir nicht sein.
Ein Ding verstehen bedeutet mindestens, dass man weiss, wie man mit ihm umgeht, wo es überall vorkommt, was alles damit verbunden ist und welche Eingriffe möglich sind. Wer etwa nicht weiss, dass man Wasser kochen kann, es gasförmig oder fest werden kann und es eine teiltransparente, Wellen weiterleitende Flüssigkeit mit einer gewissen Zähigkeit (Viskosität) und der Fähigkeit zu benetzen ist, der „versteht“ Wasser nicht. Mit andern Worten: Wer nur weiss, dass Wasser ein Wort ist, dass man in bestimmten Zusammenhängen verwendet, der weiss im Grunde nicht, was Wasser ist.
Zitat 2: „ Man könnte vermuten, die Aufgabe des Gehirns ist nicht nur passiv zu denken, als Verarbeitung von Erlebnissen, sondern das Gehirn denkt im voraus ohne unser Zutun, immer, es denkt immer , so wie unser Herz immer schlägt,“
Im Schlaf denkt man nicht – mindestens nicht im klassischen Sinne der Wikipedia, wo der Begriff Denken so umschrieben wird:
Im weiteren Sinne finden immer mentale Prozesse statt, wenn auch die meisten dieser Prozesse und Zustände gar nicht bewusst ablaufen und nicht verbalisiert werden können.
Zitat 3: „ Und jetzt übertragen auf eine KI. Man müsste sie so programmieren, dass sie auch immer sucht, noch ohne Ziel, und wenn sie irgendwie einen Link zwischen zwei Daten herstellen kann, dann tut sie es.“
Antwort: Es gibt solche Ansätze in der riesigen KI-Forschungsszene. Der Versuch alles mögliche in Beziehung zueinander zu setzen kann aber in einer kombinatorischen Explosion enden.
Na, ja. Gefühle sind ein Teil der Emotionen und die kann man tatsächlich wissenschaftlich erforschen: Darüber hat die Gehirnforscherin Lisa Feldman Barrett ein wunderbares Buch geschrieben: “How Emotions are made”.
Hier geht es aber nicht darum, etwas zu definieren, sondern um zu vergleichen: Können heutige Chatbots, konkret große Deep-Learning-Sprachmodelle, solche mentalen Zustände haben, die wir bei Menschen beobachten? Das können sie nicht, weil sie dafür einfach nicht die notwendige Ausstattung haben.
Für menschliche Empfindungen bzw. Gefühle sind die menschliche Wahrnehmung und unser Bewusstsein notwendig. Beides hat keine Maschine. Obwohl es auch fürs Bewusstsein keine Definition gibt, an der wir uns alle wissenschaftliche einigen könnten, werden diverse Aspekte des Bewusstseins in der Gehirnforschung untersucht.
Dieser Herr Lemoine könnte Kabarettist sein. Kabarett ist die Bloßstellung von Widersprüchen und Dummheiten in einer Gesellschaft mit Hilfe einer Pointe. Als Tscheche bzw. als ehemaliger Ostler wissen sie das Kabarett damals eine subtile Sache ,also ein Lesen zwischen den Zeilen war. Heute müssen sie als Kabarettist wahrscheinlich wie ein Panzer durchs Wohnzimmer fahren um die Leute wach zu machen für etwas, sie müssen also möglichst dick und manipulativ auftragen ohne sich an Wahrheiten zu halten, schon wegen der Quote oder Umsatszahlen. Künstliche Intelligenz müsste also aus den jeweiligen gesellschaftlichen Verhältnissen heraus seine Pointen setzen können, müsste also den Zeitgeist verinnerlicht haben .Lemoine könnte also eine “komische” Figur sein da er eigentlich nicht weis worüber er redet aber das ist ja im Prinzip auch unwichtig denn das machen ja die meisten heute .
🙂
Es geht um künstliche Intelligenz .
Es geht um die Software, die Programme, die eine Maschine steuern-
es geht um die Software, die eine Maschine sprechen lässt.
Vergessen wir nicht, diese Software hat ein Mensch geschrieben. Diese Software ist ein Abbild menschlicher Intelligenz. Und sie wird eines Tages das Denkvermögen eines einzelnen Menschen übersteigen, wenn die Software von vielen Menschen gemacht worden ist.
Das gibt es schon bei den Schachcomputern.
AlphaGo Zero kann Schach besser als jeder menschlicher Schachgroßmeister spielen, trotzdem ist das Modell nicht das Abbild der menschlichen Intelligenz. Wir sind in der KI noch nicht einmal ansatzweise so weit, etwas wie menschliche Intelligenz nachzubilden – höchstens winzige Aspekte davon. 🙂
Jaromir Konecny
Wir können uns dogmatisch auf den Standpunkt stellen, den menschlichen Geist kann eine Maschine nicht ersetzen. Das , was den Menschen von den Tieren abhebt ist seine Schöpferkraft.
Alles Biologische hat eigentlich Schöpferkraft, denn wie sollte die Evolution auch funktionieren.
Wir backen hier ja nur „kleine Brötchen“, wir wollen mit der KI nur einzelne Funktionen des Gehirnes nachbilden. Und das geht ja ganz gut bei der Bilderkennung.
Bei der Rasterfahndung, bei der Datenspeicherung.
Praktisch gesehen sind wir schon auf dem richtigen Wege. Dass wir das Ganze als KI bezeichnen, darüber kann man sich weiter streiten.
Der Sitz unserer Intelligenz ist der Neocortex, das heißt der neueste Teil des Gehirns, den wir mit Säugetieren gemeinsame haben. Nur ist der Neocortex beim Menschen am weitesten entwickelt. Die Architektur des Neocortex ist recht einheitlich, der Neocortex setzt sich aus etwas 150.000 ähnlichen kortikalen Kolumnen von Neuronen zusammen.
Der Gehirnforscher Jeff Hawkins (“A Thousand Brains”) glaubt, dass alle diese Kolumnen nach einem einheitlichen Algorithmus funktionieren: Das visuelle System z. B. arbeitet gleich wie unser auditives System, nur die Sensoren (Augen bzw. Ohren) unterscheiden sich. Wenn man die Augen vom visuellen System trennt und sie dem auditiven System anschließt, können Tiere weiterhin sehen. Und vice versa.
Wegen dieser Einheitlichkeit und der relativen Einfachheit des Neocortex, ist es nicht so unwahrscheinlich, dass wir irgendwann intelligente Maschinen bauen, das heißt Maschinen, die eine der menschlichen Intelligenz ebenbürtige aufweisen.
Das viel schwierigere Problem wäre, Maschinen zu entwickeln, die auch unsere “Natur” hätten, unsere Triebe, Emotionen usw. Diese werden von den alten Gehirnteilen wie dem Stammhirn gesteuert. Diese alten Gehirnteile sind viel komplexer aufgebaut als der Neocortex.
Warum sollten wir das aber tun? Künstliche Gehirne, die von Trieben wie die Machtgier und von Hormonen wie Testosteron gesteuert werden, brauchen wir nicht. Von diesen haben wir auf die natürliche Art genug.
@fauv(Zitat):
Klar werden in 10 Jahren meist nur „kleine Brötchen“ gebacken.
Erst ab 2012 mit dem bahnbrechenden Erfolg von ImageNet und AlexNet ist die Objekterkennung und auch Gesichtserkennung aus Fotos allein mit Kleincomputern überhaupt möglich geworden. Eine auf Kleincomputern laufendes Bild- und Spracherkennen mittels Deep Learning gibt es also erst seit 10 Jahren. Daraus zu folgern, dass KI immer auf diesem Stand von 2012 stehen bleiben wird ist aber falsch. Es gibt fast jährlich immer noch deutliche Fortschritte. Sprachmodelle, die Konversationen führen und Fragen beantworten können gibt es in überragender Leistungsfähigkeit erst seit 2018, nachdem die sogenannten Transformer, welche die Beziehungen zwischen den Worten eines Satzes analysieren können, im Jahr 2017 erfunden wurden.
10 Jahre sind in der Forschung ein kurzer Zeitraum. Die KI-Forschung existiert seit den späten 1950er Jahren. Seit den 1980er Jahren gibt es Deep Learning bereits mit Bild- und Spracherkennung. Doch in den 1980er Jahren dauerte ein Training selbst nur einer Aufgabe wie handgeschriebene Ziffern zu erkennen Tage und komplexere Aufgaben sprengten die damaligen Computersysteme völlig.
Es ist auch nicht so, dass Bilder, Audio und Sprache die einzigen Gebiete sind in der KI heute tätig ist. Aktuell ist auch bestärkendes Lernen (Reinforcement Learning), wo KI optimales zielorientiertes Handeln etwa in Atarispielen oder in Brettspielen wie Go und Schach lernen soll.
Auch logisches Denken war schon ganz zu Beginn im Visier der KI-Forscher, doch bis jetzt gelang es nicht auf überzeugende Weise Perzeption und logisches Denken unter einen Hut zu bringen.
Prognose: Im Jahre 2050 werden sie @fauv darüber klagen, dass KI bis jetzt nur in etwa die menschliche Intelligenz und Denkweise annähernd erreichen kann und dass eine Superintelligenz nie möglich werde. Und ja, vielleicht werden sie erst im Jahre 2100 eines besseren belehrt.
Aus obigem Beitrag:
Von der britischen/schottischen Autorin A.L. Kennedy las ich einmal, sie schreibe seit Jahrzehnten Kolumnen in Zeitungen. Früher sei sie grosszügig honoriert worden und konnte selbst umfangreich recherchieren. Seit mehreren Jahren aber sei das Kolumnenschreiben und wohl auch der Beruf des Journalisten ein mieser, schlecht bezahlter Job, indem es nicht mehr um die Auseinandersetzung mit einem Thema gehe, sondern darum möglichst viele Leute zu erreichen.
Ich denke das gilt heute für fast alle Medien: die Einschaltquote zählt und „Aufreger“-Themen mit viel Echo (auf Twitter, etc) gewinnen gegenüber Darstellungen, die zum Nachdenken/Überdenken, auffordern.
Kurzum: Vieles was heute Medien und Menschen beschäftigt und sie zu Wortmeldungen veranlässt, kann einen auf die Idee kommen lassen, die künstliche Intelligenz könnte tatsächlich schon bald die natürliche Dummheit übertreffen.
Ja, die Einschaltquoten fressen unsere Intelligenz weg. Wie Heuschrecken. 🙂
Ich meine, grundsätzlich ist das „Empfindungsproblem“. Solange man das nicht halbwegs eingrenzen und nachvollziehen kann, ist es nicht wirklich sinnvoll darüber zu diskutieren. Zumindest eine Art von Arbeitshypothese wäre angebracht.
Die KI Software „spricht“ gemäß ihrer gelernter Muster, originell formuliert, über einen Orgasmus, wie ein Farbenblinder über Farben,…. „Labern“ kann man über alles, grundsätzlich ist das Empfindungsproblem.
Derartiges muss einem gar nicht auffallen. Aber man fragt sich halt, wo ist und wie bewertet die „Empfindungssensorik“. Ich nehme an, die KI Software würde einfach „Punkte“ zwecks „Bewertung“ vergeben. Z.B. 1 Stück altes trockenes Brot gegen Hunger 1 Punkt. 1 Million Punkte …..
Aber die Philosophie, eigentlich samt der Wissenschaft, sträubt sich sogar gegen eine Arbeitshypothese.
Ungefähr in den 1960er Jahren habe ich von mehreren verschiedenen Lehrern/Professoren (an verschiedenen Orten), die im Krieg ihren Wehrdienst in Forschungsstätten abgeleistet haben, eine originelle Idee erfahren. Die wurde uns, stets aber nur unter Zusicherung absoluter Verschwiegenheit mitgeteilt, weil sie befürchteten für verrückt gehalten zu werden. Die Herren sind nun mehr alle Tod und haben nichts mehr zu befürchten. Seit rund 20 Jahren „treibe“ ich diese Ideen, natürlich anonym, durchs Internet.
Das Empfindungsphänomen könnte, theatralisch formuliert, im Zusammenhang mit den „Tanzmustern der Valenzelektronen“ in der (biologischen) Empfindungssensorik stehen. Frei werdende „Ladungsträger“ (Elektronen, Löcher, Ionen) könnten im neuronalen Netz zur Auswertung gelangen. Resonanzeffekte könnten eine zusätzliche Bedeutung haben. Eigentlich völlig banal und auch naheliegend. Das chemische Geschehen verläuft hauptsächlich im Bereich der Valenzelektronen.
Allerdings gerät man in die Nähe zu Mechanismen, die auch in der Homöopathie eine gewisse Rolle spielen können, aber vermutlich wegen der (z.B. entweder vorhandenen, oder nicht vorhandenen Resonanzeffekte) eben nicht in jedem Falle spielen müssen, sich mitunter „scheinbare“ Widersprüche ergeben.
Es ist natürlich für Wissenschaftler, die ihren Ruf verlieren könnten nicht leicht, sich dazu zu äußern, es ist fast ein Tabubruch. Allerdings wären viele offene Fragen zum Bewusstsein auf fast schon banale Weise geklärt, zumal in der Technik viele ähnliche Mechanismen (z.B. „Emergenz“ wenn Bildpunkte zu einem Bild „emergieren“), längst höchst erfolgreich realisiert sind.
Es werden in der Gehirnforschung alle Aspekte der Arbeitsweise und Funktion des Gehirns erforscht. Jede wissenschaftliche Hypothese, noch mehr jede Theorie, die nur etwas mit Experimenten belegt werden kann, verspricht ihren Entwicklern bzw. Entdeckern Ruhm und Geld.
Ich habe selbst zehn Jahre lang in der Grundlagenforschung gearbeitet. Hier gibt es keine Angst vor neuen Hypothesen, nur müssen sie Hand und Fuß haben und eben durch reproduzierbare Experimente bestätigt werden können. Generell ist es in der Naturwissenschaft kein Problem, fehlerhafte Theorien in die Welt zu setzen, wenn man keine experimentellen Befunde fälscht. Einstein hat wie eine Tiger gegen die Quantenmechanik gekämpft, geschadet hat es seinem Ruhm nicht.
Dass Wissenschaftler ihren Ruf nicht riskieren wollen, ist ein Mythos, der leider auch oft der Verbreitung der Desinformation dient.
@ Martin Holzherr 23.06.2022, 15:05 Uhr
Dass eine KI Maschine normalerweise eine Art von mobiler Software „enthält“, von dieser „gesteuert“ wird, ist naheliegend.
Derartige Mechanismen nennen Theologen „Seele“ und es ist praktisch eine Tautologie, ein Konzept dass Theologen bereits vor mehreren 1000 Jahren ausgeheckt haben. Bemerkenswert ist, dass es noch Wissenschaftler gibt, die ein derartiges Konzept grundsätzlich, trotz der vielen Milliarden von Mikroprozessoren die heutzutage in technischen Systemen „werkeln“, heftig bestreiten.
Dass Ängste, die „Konkurrenz KI“ betreffend, hauptsächlich in besser verdienenden Kreisen „zirkulieren“ ist naheliegend. Vielen sitzt noch der Schreck darüber in den Gliedern, als studierte Mathematikerinnen durch Computer ihren Job verloren haben und an der Aldi Kassa gelandet sind.
Möglichst viele Leute zu erreichen (z.B. Schauspieler), allenfalls auch im Internet nur „angeklickt“ zu werden, ist auch heute aus finanziellen Gründen wichtig. Die Corona „Kontaktverbote“ waren z.B. für Schauspieler ein Fiasko.
Die KI ist ein „Werkzeug“ wie Messer, oder Sprengstoffe,…. Nutzen und Probleme liegen nebeneinander.
Ja, aber LaMDA ist kein “Chatbot”. So ein grosses Sprachmodell (LLM) kann sehr viel mehr als nur chatten.
LaMDA ist ein Chatbot bzw. Dialogsystem (Language Model for Dialogue Applications). So bezeichnet Google LaMDA auch im Titel des Blogbeitrags zu LaMDA: “LaMDA: our breakthrough conversation technology”
Nur unterscheitet LaMDA sich von “normalen” Chatbots durch die große Anzahl an Themen, über die es Dialoge führen bzw. “chatten” kann. 🙂 Deswegen ist LaMDA ein noch besseres Dialogsystem als andere Transformer-Dialogsystemen wie Alexa z.B., weil das Modell vor allem an Dialogen trainiert wurde. Dies unterscheidet LaMDA aber auch von anderen Sprachmodellen:
“But unlike most other language models, LaMDA was trained on dialogue.” Eigentlich sagt Google in diesem Satz, dass LaMDA eher ein Dialogsystem ist als ein “Language Modell”.
Lemoine sagt zwar, LaMDA sei kein Chatbot. Wenn aber Chatbots Dialogsysteme sind, und LaMDA ein Dialogsystem ist, dann ist LaMDA ein Chatbot. Daran können wir nichts ändern. Ein Palast ist ja auch ein Gebäude, auch wenn es viel prächtiger und größer als ein Haus ist. 🙂
“Künstliche Intelligenz schreibt das beste Kabarett”
Wenn man Kabarett mag, dann stellt sich die Frage: Wie sehr amüsiert mich die vieldeutige Boshaftigkeit darin, ich habe noch nie darüber lachen können.
Derzeit produziert die KI Mensch mal wieder sehr deutlich/erpresserisches Kabarett, im Kabarett der “freiheitlich”-wettbewerbsbedingten Symptomatik: Kosovo droht der EU mit Hinwendung zu Russland und China, wenn nicht auch … – Verständlich im Zusammenhang mit den skandalösen Vorgängen zur Beitrittskandidatur der Ukraine!?
Aufgrund dieses heuchlerisch-verlogenen und bewusstseinsschwachen Verhaltens sollte einer KI von KI Mensch der Zugang zu Internet und sonstigen Informationsquellen verhindert/verboten werden.
Zustimmung, abär doch ergänzend :
-> https://de.wikipedia.org/wiki/Turing-Test (1950)
-> ‘If it looks like a duck, walks like a duck and quacks like a duck, then it’s a duck.’
Versucht werden darf bis soll so, auch wissenschaftlich, letztlich ist derartige Idee (Definition?) zurückzuweisen.
Mit freundlichen Grüßen und weiterhin viel Erfolg
Dr. Webbaer
Bonuskommentar hierzu, stand ga-anz unten, ist Dr. Webbaer entgangen, nice1! :
Denn so gefragt wird angeregt über Gefühle im Zusammenhang mit der Sacharbeit nachzudenken, Dr. Webbaer hat dies bereits (vor längerer Zeit) getan, es ist einerseits so, dass Sacharbeit am besten, wie etwa von “Spock” auf der “Enterprise” sozusagen perfekt vorgenommen, zu erfolgen hat, Dr. W bspw. hat sich als Entscheider insofern, wenn um ihn herum gejammert und gejault worden ist, immer sozusagen autistisch gezeigt, im Sinne der Sacharbeit natürlich nur, aber es ist schon so, dass alle Problemlagen dieser Welt eine Wurzel im Individuell-sozialen haben, so Fortkommen meinend.
Die KI wird immer klüger. Wir merken es z.b im Marketing. Egal, ob Texte oder Bilder, die von KI Tools erzeugt werden. Die Qualität steigt unbeschreiblich schnell.
Kein Wunder, dass wir bald von Terminator ausgelöscht werden. 😀
Der Artikel verdeutlicht die faszinierenden Möglichkeiten der Technologie. Eine unterhaltsame und zugleich beeindruckende Betrachtung des Zusammenspiels von KI und kreativem Schaffen.