KI: Der Kollaps des Schlaraffenlands

Warnungen vor superintelligenten KIs machen gerade die Runde, aber zugleich verheißen uns KI-Firmen eine rosige Zukunft, in der jeder von uns von künstlichen Intelligenzen rundum betreut wird? Was stimmt jetzt? Keins von beiden – wenn Sie mich fragen. Wahrscheinlicher ist eine dritte Option. Aber auch die hat es in sich.
Im Jahr 1993 prophezeite der Mathematiker und Science-Fiction-Autor Vernor Vinge das Ende der Menschheit.
„Binnen dreißig Jahren werden wir die technischen Mittel haben, um übermenschliche Intelligenzen zu erzeugen. Kurz danach endet die Ära der Menschen. [Within thirty years, we will have the technological means to create superhuman intelligence. Shortly after, the human era will be ended.]“1
Seitdem sind 32 Jahre vergangen und nicht wenige Experten haben den Eindruck, dass die aktuellen KI-Systeme die Menschen bereits dumm aussehen lassen. Im Jahr 2023 unterschrieben Hunderte von KI-Forscher ein kurzes öffentliches Statement:
„Die Gefahr des Aussterbens durch KI einzudämmen, sollte eine vorrangige weltweite Aufgabe sein, neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkriegen [Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war].“
Dieser bemerkenswerte Satz findet sich auf der Webseite des „Center for AI Safety“ in San Francisco. Unterschrieben haben unter anderem Bill Gates, Sam Altman (ChatGPT), der Erfinder Ray Kurzweil und der Philosoph Daniel Dennett.A’
Vor wenigen Tagen haben die KI-Forscher Eliezer Yudkowsky und Nate Soares ein Buch mit dem sprechenden Titel „If anyone builds it, everybody dies – why superhuman AI would kill us all“ veröffentlicht. Die Autoren argumentieren, dass die Entwicklung der KI zu schnell geht und geeignete Sicherheitsmaßnahmen fehlen.
Aktuelle generative KI-Systeme wie ChatGPT werden trainiert, nicht programmiert. Deshalb sei kaum vorherzusagen, welche Ziele sie tatsächlich erreichen wollen und welche Wege sie dafür einschlagen. Ihre innere Funktionsweise, sagen die Autoren, sei dermaßen unterschiedlich von der des menschlichen Gehirns, dass man sie mit Recht als „Außerirdische“ bezeichnen könne. Menschliche Ethik sei ihnen fremd. Die Autoren resümieren, dass eine übermenschlich intelligente KI (ASI = Artificial Superintelligence) von Menschen nicht mehr kontrollierbar ist.
Die erste ASI und das Ende der Menschheit
Mehr noch: Eine ASI werde die Menschen wahrscheinlich ausrotten. Warum sollte sie das tun? Menschen seien gefährlich, sagen die Autoren. Sie könnten beispielsweise einen Atomkrieg auslösen und damit alle Computer vernichten. Dieses Risiko will eine rational handelnde ASI sicherlich ausschließen. Und außerdem: Wozu braucht eine ASI noch Menschen? Sie kosten Ressourcen, wollen ernährt, gekleidet, beschäftigt und bedient werden. Deshalb muss jede vernünftige und gefühllose KI zu dem Schluss kommen, dass sie eher stören. Ganz neu sind die Überlegungen nicht, siehe Vernor Vinge. Und bereits 1984 kam der erste Terminator-Film in die Kinos.

In meinem Buch „Klüger als wir?“, in dem es um natürliche und künstliche Intelligenz geht, habe ich schon 2011 spekuliert, dass eine ASI der Erdatmosphäre den Sauerstoff entziehen könnte2. Das Gas löst schließlich Brände aus und korrodiert Kontakte. Damit gefährdet es die Funktion der ASI. Natürlich stirbt ohne Sauerstoff ein beträchtlicher Teil aller organischen Lebewesen. Das spricht aber nicht gegen das Vorhaben, denn Lebewesen schaden den KIs mehr als sie nützen. Insekten kriechen gerne in Computer und schließen Netzteile kurz. Menschen sind noch schlimmer: Immer wieder versuchen sie verzweifelt, KIs zu sabotieren oder ihnen gar den Strom abzustellen. Also birgt die Befreiung der Atmosphäre vom Sauerstoff aus der Sicht der ASI eigentlich nur Vorteile.
Am Gelde hängt, zum Gelde drängt …
Keiner soll sagen, wir wären nicht gewarnt worden. Aber warum geht die Jagd nach immer intelligenteren und leistungsfähigeren KIs ungebremst weiter?
Im Grunde ist die Antwort einfach: Es geht um viel Geld. Die heutigen KIs beantworten zwar Fragen, entwerfen Präsentationen und schreiben Computerprogramme, aber ihnen unterlaufen dabei groteske Fehler. Deshalb sind die aktuellen Large Language Models (LLM) in kritischen Situationen schlicht unbrauchbar. Ein aktueller Report des MIT Media Lab stellte dazu fest:
„Dieser Report deckt die überraschende Tatsache auf, dass trotz Investitionen von 30 bis 40 Milliarden US$ in generative KI, 95 Prozent aller Firmen keinen Gewinn daraus erzielt haben [Despite $30–40 billion in enterprise investment into GenAI, this report uncovers a surprising result in that 95 % of organizations are getting zero return].“
So lassen sich mit ChatGPT problemlos ganze Präsentationen zusammenstellen. Nur enthalten sie oft genug auf zwanzig Folien nur wohlklingende Phrasen, aber keine brauchbaren Ideen. Und viele Angestellte beklagen sich über Kollegen, die sich damit profilieren wollen, dass sie sinnlose KI-generierte Memos herumschicken. Viele Firmen haben deshalb feststellen müssen, dass der KI-Einsatz mehr Zeit kostet, als er einspart.
Eine ASI wäre also ein gigantisches Geschäft – wenn sie sich denn kontrollieren lässt. Und natürlich kann der erste, dem es gelingt, einen Deus in Machina (einen Maschinengott) zu konstruieren, mit (un)sterblichem Ruhm rechnen.
Das falsche Paradies
Sam Altman, Gründer von OpenAI (bekannt durch ChatGPT), wich in einem Interview mit der Welt am Sonntag (28.9.2025) der Frage aus, ob er ASIs für eine Gefahr halte. Er sagte, seine liebste Beschreibung, wie ein solches System die Menschen behandeln würde, stamme von seinem Mitgründer Ilya Sutskever, der einmal gesagt haben soll, er hoffe, dass eine ASI die Menschen so behandeln werde wie ein liebevoller Elternteil. So klingt Pfeifen im Dunkeln.
Und Sam Altman will weitermachen. Bis 2030 erwartet er eine KI, „die Dinge tut, die wir nicht können“. Nehmen wir einfach an, dass sich eine ASI so trainieren lässt, dass sie den Menschen jeden Wunsch von den Augen abliest. Wäre das die Rückkehr ins verlorene Paradies? Nicht unbedingt. Der Traum vom Schlaraffenland, vom Millionengewinn im Lotto oder der Ölquelle im Garten wandelt sich oft genug zum Fluch, sobald er sich erfüllt.
Die Wirtschaftswissenschaft kennt den Begriff des „Ressourcenfluchs“. Ein Reichtum an Bodenschätzen hat demnach negative Folgen für ein Land, und zwar fast immer. Die Landwirtschaft geht zurück, die Wirtschaft leidet, die Geldentwertung beschleunigt sich, Korruption greift um sich und die Wahrscheinlichkeit einer Diktatur nimmt zu. Das ist keine Theorie, sondern eine Beobachtung. So sind Saudi-Arabien und die Golfstaaten für ihre extravaganten Gebäude bekannt, aber auch für ihre repressiven Regime. Die Hochhäuser und Paläste wurden von Arbeitern errichtet, die am Reichtum keinen Anteil hatten, sondern zu teilweise unmenschlichen Bedingungen schuften mussten.
Der Fluch des leichten Gelds
In den Niederlanden trieb der enorme Export von Erdgas in den 1960er-Jahren den Kurs des holländischen Guldens so hoch, dass die Industrie nicht mehr konkurrenzfähig arbeiten konnte. Das gleiche wiederholte sich zwanzig Jahre später in England, als die Ausbeutung der Ölfelder in der Nordsee begann.
Wenn also eine wohlwollende künstliche Superintelligenz ihren hart erarbeiteten Reichtum brav bei uns abliefert (und gleich gewinnbringend für uns anlegt), verbessert sie damit die Situation der meisten Menschen allenfalls für kurze Zeit.
Wir sollten der KI auch nicht das Denken überlassen. Mit der Intelligenz verhält es sich wie mit einem Muskel: Sie muss trainiert werden. Ständig. Bei fehlender Übung baut sie schnell ab. Wenn Schüler ihre Aufsätze von ChatGPT schreiben lassen, die Lösungen ihrer Mathehausaufgaben vom Bildschirm kopieren und im Kunstunterricht die Kreativität von Gemini oder DALL-E ausbeuten, dann werden sie dadurch nicht klüger.
Eine barmherzige künstliche Superintelligenz, die uns ein Schlaraffenland erschafft, zieht uns in einen Strudel der Abhängigkeit, aus dem wir uns nur mit enormer Anstrengung wieder befreien können.
Was eher passieren wird
Halten wir fest: Eine ganze Reihe von Firmen treibt die Entwicklung einer ASI mit gewaltigen Investitionen voran, trotz aller Bedenken. Die Verlockung eines geradezu märchenhaften Gewinns und die Faszination der Erschaffung eines Deus in Machina ist einfach zu groß.
Aber sie werden aller Voraussicht nach scheitern.
Im Wahrheit ist eine ASI sehr viel weiter entfernt, als die meisten Menschen denken. Selbst das größte heutige LLM spiegelt ihre Intelligenz nur vor. Sie wird mit einer Unmenge von Texten gefüttert und erschließt daraus, wie ein Text, der einer vorgegebenen Frage entspricht, am wahrscheinlichsten aussehen würde. Prinzipiell geht sie dabei von der Frage aus und ergänzt als zunächst ein Wort, genau eins. Den gesamten Text (Frage plus erstes Wort der Antwort) nimmt es dann als neuen Input und generiert das nächste Wort, bis die Antwort fertig ist.
Zugegeben: Das ist die Strichmännchenzeichnung eines in Wahrheit recht komplexen Prozesses, aber sie vermittelt eine Idee davon, dass die KI als Wahrscheinlichkeitsmaschine funktioniert und kein tieferes Verständnis der Fragestellung mitbringt. Wenn ich bei dieser Maschine also eine Präsentation bestelle, erhalte ich die eingedampfte Essenz der Trainingsmaterialien. Nicht mehr, aber auch nicht weniger. Davon darf ich keine Innovationen erwarten, es sei denn, eine Idee liegt geradezu „in der Luft“ und wurde von vielen Experten wohl angerissen, aber nicht zu Ende gedacht.
Bei der Bildgenerierung ist es nicht anders. Die KI-Bildgeneratoren gehen von einem „Samenkorn“ aus, einem „Seed“, und fügen dann Bildelemente hinzu, die am wahrscheinlichsten dazu passen. Wenn die KI mit einer großen Zahl von Bildern trainiert wurde, erzeugt sie durchaus sehenswerte Ergebnisse. Innovativ oder gar kreativ ist das aber nicht.
KI ist blind und taub
Das Gehirn von höheren Tieren muss die Wahrnehmung von Augen, Ohren, Nase und Haut auswerten und mit der Bewegung der Muskeln koordinieren. Wenn das nicht perfekt funktioniert, stirbt das Tier relativ schnell. Je komplexer das Gehirn, desto länger müssen die Eltern ihre Nachkommen betreuen, bevor deren Gehirne gelernt haben, ihren Körper richtig zu steuern. Gefühle wie Hunger, Liebe oder Ehrgeiz sorgen für den Antrieb der biologischen Maschine. Heutige KIs dagegen haben keine Sinnesorgane und keine Gefühle. Sie entwickeln kein Bild der Außenwelt, sie bilden nur die gewichtete (und nachkorrigierte) Essenz der schriftlichen Erkenntnisse von Menschen ab.
Füttert man KI-Modelle immer wieder mit ihren eigenen Antworten, werden die Aussagen immer fahriger, bis sie sich am Ende in sinnlosem Gebrabbel verlieren. Experten sprechen hier von einem sogenannten Modell-Kollaps.
Wie man künstliche Intelligenz steigert – und wie nicht
Vor gigantischen Investitionen in gewaltige Daten- und Rechenzentren sollten die Firmen vielleicht vorher klären, ob die Intelligenz der KI wirklich linear mit der Datenmenge, der Rechenleistung und dem Stromverbrauch wächst. Wenn die Intelligenz allerdings davon abhängt, immer mehr Daten auf jede mögliche Weise zu kombinieren, wächst die Intelligenz sehr viel langsamer.
Lasse Sie mich das an einem Beispiel erläutern: Ein reisender Händler besucht fünf Städte, und will dabei möglichst kurze Wege zurücklegen. Er kann in einer beliebigen Stadt anfangen, und von da in jede der verbleibenden vier Städte reisen. Dann bleiben noch drei, zwei und eine. Er hat also 5 x 4 x 3 x 2 x 1 = 120 Kombinationen. Er schreibt eine Tabelle der Entfernungen und der Reisedauer auf ein Blatt Papier und hat in einer Stunde die günstigste Lösung gefunden. Das macht ihn so erfolgreich, dass er jetzt 10 Städte besuchen möchte. Nur: 10 x 9 x 8 … x 2 x 1 ergibt 3 628 800 Kombinationen! Das kann er nicht mehr auf einem Blatt Papier ausrechnen, selbst tausend Blätter würden dafür nicht reichen.
Sollte also die Intelligenz einer KI von der Fähigkeit zur sinnvollen Kombination immer größerer Datenmengen abhängen, dann erfordert jede kleine Intelligenzsteigerung eine Vervielfachung der Rechenleistung. Es könnte also sein, dass trotz riesiger Serverfarmen mit eigenen Kernkraftwerken die Intelligenz der KI nicht nennenswert steigt.
Erfolgsrezepte bei Mensch und Maschine
Bei Menschen sind Beharrlichkeit, gute soziale Fähigkeiten, Übersicht und Zielstrebigkeit wichtiger als bloße Intelligenz. Die erfolgreichsten Zeitgenossen sind nicht die mit einem himmelstürmenden IQ, sondern eher diejenigen, die unbeirrbar ein Ziel verfolgen und dabei sehr gut mit anderen Menschen zusammenarbeiten (oder sie für sich arbeiten lassen). An diesen Dingen fehlt es der KI, und auch eine ASI wird darin nicht wesentlich besser werden. Sie wird beispielsweise kaum vorhersagen können, ob das neue Produkt der Firma den Markt aufrollen wird oder in den Regalen liegen bleibt. Nach den ersten Enttäuschungen werden viele Firmen also weitere Investitionen in KI-Lizenzen genau prüfen wollen.
Trotzdem haben die Anbieter dermaßen viel Geld in neue KI-Modelle gesteckt, dass eine dünnhäutige Blase entstanden ist, die jederzeit platzen kann. Wir reden hier von mehr als 700 Milliarden US$. Schon im nächsten Jahr könnte ein ähnlicher Betrag dazu kommen. Zum Vergleich: Die Investitionen in Kernfusionskraftwerke liegt bei etwa 10 Milliarden US$ (ohne ITER)3.
Der tiefe Sturz der glorreichen Sieben
Während also neue Rechenzentren und das KI-Training einige Tausend Milliarden US$ verschlingen, bringen die Anwenderlizenzen bisher nur maximal einen zweistelligen Milliardenbetrag ein. Unternehmen wie Google, Meta, Microsoft und OpenAI (und unzählige Start-ups) wissen das auch, aber sie verlassen sich darauf, dass ihre Kunden künftig gigantische Summen für ASI-Lizenzen ausgeben werden, wobei diese ASI erst noch erfunden werden muss. Anders ausgedrückt: Man hat im teuersten Lokal der Stadt Austern bestellt und hofft jetzt, in einer davon eine Perle zu finden, mit der man die Rechnung bezahlen kann. In der Vergangenheit haben solche Szenarien im besten Fall zu einer Marktbereinigung geführt, im schlimmsten Fall zu einem kompletten Zusammenbruch der Weltwirtschaft.

Nehmen wir einmal an, dass die KI-Modelle der nächsten Generation die meisten zahlenden Kunden nicht überzeugen. Dann müssten die Hersteller mehrere Billionen US$ an Investitionen abschreiben, und die Börsenkurse der KI-Unternehmen würden abstürzen. Und deren Weg nach unten ist lang. Allein der Börsenwert der „Magnificent Seven“ (Apple, Amazon, Alphabet, Meta Platforms, Microsoft, Nvidia, Tesla)4 beträgt schwindelerregende 21 Billionen US$ und macht mehr als ein Drittel des Börsenwerts aller Unternehmen des S&P 500 aus. Sie stützen damit die US-Konjunktur fast im Alleingang. In China sieht es ähnlich aus. Zur Einordung: Das deutsche Bruttoinlandsprodukt (Wert aller inländischen Produkte und Dienstleistungen) betrug 2024 etwa 4,6 Billionen US$.
Ein Zusammenbruch der KI-Aktienriesen würde die weltweite Wirtschaft ins Chaos stürzen. Ein solcher Crash ließe die Covid-Delle wie eine winzige Scharte aussehen.
Die Frage ist nur, ob es vorher gelingt, eine ASI zu bauen und zu trainieren. Wenn nicht, wird es wohl in der überschaubaren Zukunft keine geben. Wenn doch, wird sie vermutlich weder den Erwartungen noch den Befürchtungen gerecht werden können.
Anmerkungen
[1] Vinge, V. (1993). The coming technological singularity: How to survive in the post-human era. Science fiction criticism: An anthology of essential writings, 81, 352-363. Link zum Volltext
[2] Das ist nicht so schwierig wie es vielleicht auf den ersten Blick erscheint. Sauerstoff ist sehr reaktiv. Wenn die grünen Pflanzen ihn nicht ständig nachproduzieren, verschwindet er in wenigen tausend Jahren aus der Luft. Und wenn eine ASI nachhilft, geht es natürlich auch deutlich schneller.
[3] Laut Fusion Industry Report 2025 von der Fusion Industry Association
[4] Das wertvollste deutsche Unternehmen ist SAP mit ca. 265 Milliarden Euro Marktwert. Zweiter ist Siemens mit ca. 182 Milliarden Euro. Der Markwert der Volkswagen AG beträgt 46 Milliarden Euro und damit nicht viel mehr als der von Electronic Arts (Computerspiele).
Die Nutzer von KI bestimmen die Zukunft von KI
Im Jahr 2025 gibt es 350 Millionen Nutzer von KI, einige von ihnen benutzen es jeden Tag und die wenigsten nutzen es für den Beruf. Schon im Jahr 2030 sollen es 950 Millionen Nutzer sein. Diese Tatsache – fast jeder benutzt KI- bestimmt heute das Verhalten und die Entwicklungsrichtung etwa der populären Grossen Sprachmodelle. So stiess etwa Open-AIs neueste ChatGPT-Version auf wenig Gegenliebe trotz ihrer enorm verbesserten Kompetenz in medizinischen Fragen. Grund: ChatGPT 5.0 kommunizierte weniger liebevoll und ging weniger auf die Sorgen seiner Benutzer ein. Doch wie gesagt: sehr viele Nutzer der grossen Sprachmodelle sehen die KI als eine Art Gegenüber, sie giessen all ihre Sorgen, ihre Meinungen und das, was man niemand hören will in Prompts auf die dann ChatGPT antworten soll. Das ist ein wichtiger Grund, dass die grossen Sprachmodelle immer „menschlicher“ werden, denn die Benutzer wollen das.
Doch es gibt inzwischen auch ernstzunehmende berufliche Anwendungsfelder. Das wichtigste davon ist das Programmieren. Geschätzt 80% allen Programmcodes wird inzwischen von KI generiert und die menschlichen Software-Entwickler kümmern sich inzwischen mehr um die Integration des Codes und die Fehlerbehebung. Claude Sonnett 4.5 scheint momentan die beste Coding-KI zu sein. Es scheint in der Lage zu sein, viele Stunden lang ununterbrochen an einem Codeprojekt arbeiten zu können. Es ist wohl nur eine Frage der Zeit bis die Fehlerrate beim KI-Coding so tief wird, dass irgendwann sogar ein Nicht-Programmierer sein eigenes Computerspiel entwickeln kann. Damit wird eine ganzes Berufsumfeld umgekrempelt.
Kurzum: Die Nutzer bestimmen die Entwicklung von KI. Die meisten nutzen KI als Gegenüber, einige wie Softwareentwickler aber auch bereits im Beruf. Ganze Berufssparten werden in Zukunft völlig umgekrempelt durch KI, doch lange nicht alle. Handwerksberufe etwa spüren bis jetzt nichts. Das ändert sich erst dann, wenn Humanoide die Bühne betreten.
Zunächst: Ja, die generativen KI-Modelle, allen voran ChatGPT haben sich durchgesetzt. Und beim Coding nehmen sie den Programmierern lästige Schreibarbeiten ab. Aber wenn ich ein Computerspiel entwickeln will, muss ich nicht nur programmieren können, ich muss kreativ sein, eine spannende und berührende Handlung erfinden können. Und das kann eine generative KI eben nicht. Aber eine ASI könnte es vielleicht. Darauf bauen die großen Computerfirmen. Und eben an diesem Punkt habe ich Zweifel, ob sie sich nicht übernommen haben.
Selbst wenn es im Jahr 2030 bereits 600 Millionen Benutzer geben wird, müssten sie im Durchschnitt mehr als 200 US$ im Monat bezahlen, um die massiven Investitionen zu refinanzieren. Und da habe ich doch ernste Zweifel. Und ganz deutlich: Die Sprachmodelle sind nicht menschlich, sie erscheinen nur so. Selbst das einfache Programm “Eliza” von Joseph Weizenbaum aus dem 1966 kam erstaunlich vielen Menschen bereits wie ein echtes Gegenüber vor. Menschen freuen sich einfach, wenn ihnen jemand zuhört, oder wenigsten so tut.
In diesem Blogpost geht es eigentlich mehr um die Frage, ob eine wirklich übermenschlich intelligente KI möglich ist (vorläufig nicht, denke ich), ob sie das Ende der Menschheit bedeutet (nur wenn wir sie lassen) oder ob sie der Menschheit jede Anstrengung abnehmen (würde auch zum Aussterben führen).
@Thomas Grüter
Zitat 1: „ Selbst wenn es im Jahr 2030 bereits 600 Millionen Benutzer geben wird, müssten sie im Durchschnitt mehr als 200 US$ im Monat bezahlen, um die massiven Investitionen zu refinanzieren. Und da habe ich doch ernste Zweifel.“
Antwort: Der erste Internet-Boom endete mit einem grossen Crash, aber Firmen wie Amazon gingen sogar gestärkt daraus hervor. Das gleiche erwartet uns auch jetzt.
Zitat 2: „Die Sprachmodelle sind nicht menschlich, sie erscheinen nur so.“
Antwort: Die Sprachmodelle schneiden in Tests auf Empathie, Einfühlsamkeit deutlich besser ab als Durchschnittsmenschen. Wenn sie also von ihrer Krebserkrankung erzählen, dann wird ChatGPT besser und mitfühlsamer darauf reagieren als 2/3 der Kollegen und Freunde, die sie kennen.
Zitat 3: “ In diesem Blogpost geht es eigentlich mehr um die Frage, ob eine wirklich übermenschlich intelligente KI möglich ist“
Antwort: Sprachmodelle werden nie übermenschlich sein, spezialisierte Deep-Learning-Systeme dagegen zeigen heute bereits olympische Leistungen. AlphaGeometry 2 von DeepMind etwa löst alle Mathe-Olympiade Aufgaben bis auf eine aus dem Jahr 2025. AlphaProof löst auch nicht-geometrische Aufgaben auf Olympiaden-Niveau und AlphaEvolve kann sogar komplizierte neue Algorithmen entwickeln.
Dazu kommen noch die sogenannten Foundation Models, die ausgiebig auf einem bestimmten Anwendungsgebiet trainiert wurden und oft übermenschliche und durch keine andere Technologie zu erreichende Leistungen vollbringen. So können etwa Physics-Foundation Models vollkommene Physiksimulationen durchführen mit allen denkbaren Fluiden und Feststoffen und das allein durch Training und ohne Differentialgleichungen zu lösen und sie lösen diese Systeme in einem Bruchteil der Zeit, die ein konventionelles Simulationssystem benötigt. Auch Klimamodelle können schon bald viel schneller und detaillierter durchgespielt werden. Foundation Models kommen auch in der Medizin, der Bildklassifizierung, der Erstellung und Bearbeitung von Bildern mit hoher Auflösung,
der Extraktion von Dokumenten und in der Robotik zum Einsatz.
Kurzum: Superintelligenz auf allen Gebieten ist durch KI nicht so schnell zu erwarten, Super-Experten aber sind bestimmte KI-Programme schon heute auf gewissen Gebieten. Kürzlich wurden von einem Mathematiker 3 Papers in kurzen Abständen eingereicht bei denen vermutet werden muss, dass die KI den Hauptteil geleistet hat, denn so schnell wie dieser Mathematiker sind Menschen normalerweise nicht.
hier geht jetzt einiges durcheinander. Der Begriff “Deep-Learning-Systeme” beschrreibt den inneren Aufbau, sozusagen die “Verdrahtung” oder “Anatomie”aller modernen KI-Systeme. Foundation-Models, zu deutsch “Basismodelle” oder “Grundmlageodelle” sind Deep-Learning-Systeme, die mit einer riesigen Menge von Daten trainiert wurden. Hier ein Link dazu: https://http://www.bigdata-insider.de/was-ist-ein-foundation-model-a-a8d0e193cd94e8dab1acf5457930b624. Diese Modelle sind noch nicht spezialisiert. GPT3, GPT4 oder GPT5 sind solche Modelle. Sie können dann für spezielle Aufgaben weiter trainiert werden. Sind KI-Systeme mitfühlend? Wenn ich einen Test anwende, der für Menschen vorgesehen ist, bekomme ich keine sinnvolle Antwort. Wenn ich dem COmputer mitteile, dass ich leide, körperlich oder seelisch, gibt er die Antwort, die sein Trainingsmaterial und die späteren Eingriffe der menschlichen Trainer für sinnvoll halten. Die Trainer verändern verändern dazu die innere Gewichtung, was wiederum, wenn man einigen Experten glauben darf, mehr eine Kunst als eine Wissenschaft ist.
Aber jetzt noch einmal: KIs haben ihre Berechtigung. In der Medizin können sie wertvolle Hilfe leisten. Die unübersehbare Zahl von seltenen Erkrankungen kann kaum ein Arzt überschauen, zusammengenommen sind sie aber durchaus häufig, werden aber oft genug erst nach Jahren erkannt. KIs könnten hier weitere Untersuchungen vorschlagen oder einfach nur vertiefende Fragen anregen, die der Arzt dem Patienten stellen könnte. In der Beurteilung von Röntgenbildern und von EKGs leisten KI-Modelle bereits sehr gute Arbeit.
@Grüter: “… innere Gewichtung, was wiederum, wenn man einigen Experten glauben darf, mehr eine Kunst als eine Wissenschaft ist.”
Es heißt ja schließlich künstliche Intelligenz, nicht wissenschaftliche Intelligenz, womit wir wieder bei der Bewusstseinsentwicklung sind!?
In der Medizin ist unsere KI sicher eine nützliche Krücke, für unseren systemrational gespaltenen und somit überlasteten Denkapparat, aber darum die KI mit dieser gespalten-überlasteten Unfähigkeit zu belasten, ist …!?👋🥴
Ja, Foundation Models sind pretrained, also vortrainiert, und tatsächlich zählen auch Sprachmodelle zu den vortrainierten Modellen. Das aber ist ja gerade eine der Stärken dieser Modelle, denn
1) Die Foundation Models können schon ohne weiteres Training anspruchsvolle Aufgaben lösen und
2) durch Fine-tuning können die Foundation Models besser werden für spezielle Aufgaben innerhalb des Bereichs für das sie trainiert wurden.
Ein Sprachmodell etwa kann nachträglich noch die Feinheiten der Sprache der Anwälte und Gesetzeshüter lernen, ein Physik-Grundmodell kann nachträglich noch die physikalischen Feinheiten der Interaktion etwa von Meeresströmungen mit der Topographie erlernen.
Noch zu den von ihnen selbst genannten KI-Modellen für die Diagnose von Krankheiten: Hier sind KI-Modelle schon lange den durchschnittlichen Medizinern, ja sogar den ausgebildeten Differentialdiagnostikern überlegen.
Kurzum:
1️⃣ Die Grundmodelle, die heute die KI-Szene dominieren, können nach einem weiteren Training für sehr viele spezialisierte Anwendungen eingesetzt werden – etwas, was KI-Ausgebildeten ein weites Berufsfeld eröffnet.
2️⃣ In vielen Berufsfeldern, etwa in der Medizin sind KI-Modelle bereits unverzichtbar und ein Verzicht auf ihre Hilfestellung kann als Verstoss gegen die Verpflichtungen gedeutet werden, die einem das Berufsethos auferlegt.
IK denk, KI ist Pflicht, nicht Kür
@Thomas Grüter
– bezüglich Fine-Tuning und spezialisierte Sprachmodelle: Dazu schreibt mir mein Sohn gerade (Zitat):
Bezüglich Einsatz von Physik basierten Basismodellen (Foundation Models) liest man in Macht KI künftig Wetter- und Klimaprognosen?
in der Einleitung zu dem von Ihnen von verlinkten Artikel steht allerdings der Satz:
Ja, KI braucht kein Bewusstsein um die Welt zu zerstören – Das deutlichste Beispiel ist Mensch, die KI der Schöpfung.🤑🤤😛🤥🫨 🫣🤐 👋🥴
@Hauptartikel
„Wenn ich bei dieser Maschine also eine Präsentation bestelle, erhalte ich die eingedampfte Essenz der Trainingsmaterialien.“
Das ist eine gewaltige Urheberrechtsverletzung, aber dennoch genau das, was die Menschheit jetzt braucht? Es ist nicht unbedingt fair, aber wichtig, finde ich. Der Großteil der Menschen können sich mehr nicht leisten. Und immer mehr Menschen können so ihren Bildungsrückstand aufholen.
„Die Frage ist nur, ob es vorher gelingt, eine ASI zu bauen und zu trainieren.“
Mir ist auch schleierhaft, was dann hier das über uns Hinausgehende denn konkret sein soll. Die letzten offenen Fragen der Physik z.B. herausfinden? Na, dann kann die ASI das dann zügig mit uns teilen, und der Vorsprung wäre sogleich wieder ausgeglichen.
Ich hoffe hier eigentlich vor allem auf eine weitgehende Automatisierung von Verwaltungsvorgängen aller Art. Also die öffentlichen Verwaltungen, einen Großteil der Justiz und eben so ziemlich allen Papierkram, den man so an der Backe hat.
Das spart dann durchaus an den richtigen Stellen.
Expertensysteme z.B. in der Medizin, die auch seltene Erkrankungen schnell diagnostizieren können noch dazu kommen. Oder eben Selbstfahrsysteme und humanoide Roboter, die sich problemlos zwischen uns bewegen können. Auch das spart jede Menge menschliche Arbeitskräfte ein.
Ich hätte eigentlich nicht so viel gegen weniger Arbeit für uns Menschen. Jedenfalls ist das kein Problem von übermenschlicher KI, eher eine Frage davon, dass wir auch hier und da wirklich gerne arbeiten, weil es uns auch Spaß macht und uns einfach durch das Leben bewegt.
Hier eine Tabelle, welche den Zeitpunkt des Einsatzes und der Anwendungsgebiete von KI auflistet:
Was Stirbt, Wie Es Passiert, Wann
– Fahren Selbstfahren wird allgegenwärtig. ->12 Millionen Fahrer arbeitslos. Uber/Lyft/LKW tot. 2028-2030
– Ärzte Al diagnostiziert besser, verschreibt perfekt, vergisst nie Symptome. MDs werden zu Haftungsmanagern. 2027-2032
– Chirurgen Roboterchirurgie mit null Zittern, perfekte Präzision 2029-2034 sion. Menschliche Chirurgen beobachten Bildschirme.
– Soldaten Al-gesteuerte Drohnen und Roboter führen Kriege. Menschen werden zu Kollateralschäden, nicht zu Kämpfern. 2030-2035
– Coders Al schreibt, testet, stellt bereit und pflegt den gesamten Code.”Programmierer” werden zu Prompt- Ingenieuren, dann nichts.2026-2029
– Lehrer Personalisierte Al-Tutoren für jeden Schüler. 2027-2030. Bildung wird rein digital.
– Anwälte Al liest alle Gesetze sofort, schreibt perfekte Verträge, argumentiert besser. Gerichte, die von Algorithmen geführt werden. 2028-2033
– Künstler Al generiert jedes Bild, Lied, Film auf Abruf. 2028-2032
Menschliche Kreativität wird zum Nischenluxus.
– Fabrikarbeiter Totale Automatisierung. Lichter-Aus-Produktion. 2029-2033; Menschen können nicht einmal Produktionsflächen betreten.
– Militär Autonome Drohnen, Robotersoldaten, KI-Befehlssysteme 2030-2035. Menschliche Generäle obsolet. Kriege, die von Maschinen geführt wurden.
Ich finde es sehr interessant, wenn Sie KI aus Ihrem Blickwinkel, hier zum Thema machen.
Ich möchte vorausschicken, ich persönlich meine, dass wir Menschen wegen unserer begrenzten Sensoriken und unserer begrenzten Denkmöglichkeiten, „Wahrheiten“ (außerhalb der Mathematik), bestenfalls mehr oder weniger „nahe kommen können“ und das eher nicht wahrhaben wollen.
Letztlich beruht unsere „natürliche Denke“, als auch die KI, auf „Musteranalyse und Mustersynthese“, letztlich auf „Statistiken“. Derartiges hat ein höchst gebildeter Diskutant als „matschig“ bezeichnet….
Mit der „absoluten, strengen Logik“ könnt man vermutlich gar nicht existieren, man würde verrückt werden. Ein Bekannter hat es vor vielen Jahrzehnten ausgerechnet mit einer „sehr logischen Partnerwahl“ versucht. Brauche eigentlich nicht zu erwähnen, dass er auf absurde Weise damit gescheitert ist….
Umkommen könnten wir (alle) auch beim Krieg mit A, B, C Waffen. Kriege, ohne derartige Waffen, haben Tradition und manche vermuten sogar, sie dienten der „natürlichen Auslese“, weil der Mensch als „höchster in der Fresskette“ keine natürlichen Feinde hat….
Leider würde KI auf unser Leben Einfluss nehmen, so wie durch Computer z.B. hoch gebildete Mathematikerinnen an der Aldi Kassa „gelandet“ sind, werden viele relativ attraktive Berufe durch KI ersetzt.
Es geht um die optimale Einbindung der KI Systeme in das gesellschaftliche Umfeld, so dass möglichst alle Menschen profitieren und die Folgen (Jobverluste) für die Betroffenen möglichst gering sind.
Mir ist der “Geldwert” bei der Bewertung von Tätigkeiten und seine Bedeutung sehr bewusst, nur sollte KI besser für die Allgemeinheit genutzt werden, möglichst ohne Entlassungen, nur zum Nutzen… Aufsichtspersonal wird immer gebraucht, sonst werden die Systeme “ausgetrickst”.
Ich denke nicht nur in wirtschaftlichen Kategorien, sondern lege Wert auf gesellschaftliche Verantwortung, kombiniert mit Systemintelligenz. Meine Vision zielt auf ein Technologie gestütztes Gemeinwohlmodell, das den Nutzen von KI und Maschinen maximiert, ohne den sozialen Zusammenhalt zu gefährden.
Der wahre Wert von KI liegt nicht (nur) im Geld, sondern auch in ihrer Fähigkeit, letztlich gesellschaftliche Probleme zu lösen, in Bildung, Unterhaltung, Verwaltung, Umwelt, in der Pflege….
Wenn Unternehmen ihre KI-Systeme nicht nur zur Profitmaximierung, sondern als „digitale Infrastruktur“ für die Allgemeinheit als eine Art von „Steuer“ bereitstellen, so entsteht ein neues Verständnis von Wertschöpfung. Menschliche Produktivität wird direkt hoch besteuert, Maschinen wesentlich weniger, Maschinen „empfinden“ Steuern nicht belastend….
„Soziale“ Einsatzmöglichkeiten von KI:
Steuerung von Lernmaschinen um das Sprachchaos in den Schulen zu mildern und die Schüler individuell zu fördern. So dass die Bildung besser wird und nicht die Menschen wegen KI immer dümmer werden.
Automatisierte Systeme könnten in der Verwaltung Anträge, Dokumente und Kommunikation effizienter abwickeln, ohne Personalabbau, sondern zur Entlastung und Übernahme anderer wichtiger Aufgaben.
KI-gesteuerte Sensorik und Wartungsroboter für die Infrastruktur könnten Straßen oder Versorgungsnetze und öffentliche Gebäude überwachen und instand halten.
Roboter und KI könnten im Gesundheitswesen äußerst umfangreichen Routineaufgaben übernehmen, damit bekämen menschliche Arbeitskräfte mehr Zeit für echte Arbeiten am Patienten und für Zuwendung.
Technologie braucht auch menschliche Präsenz, um wirksam und vertrauenswürdig zu bleiben.
Systeme können ausgetrickst werden, sei es durch Manipulation, Täuschung oder Umgehung. Menschliche Aufsicht verhindert das.
KI erkennt Muster, meldet Auffälligkeiten, aber der Mensch entscheidet, interveniert und begleitet.
KI übernimmt monotone oder komplexe Aufgaben, damit Menschen sich auf das Wesentliche konzentrieren können.
Wer durch KI entlastet wird, kann neue Rollen übernehmen. Z. B. als KI-Begleiter, Ethikberater oder technischer Supervisor.
Soziale Stabilität durch kluge Integration: Der technologische Wandel muss sozial abgefedert werden, damit er nicht zu Spaltung führt.
„Technologie soll dem Menschen dienen, nicht ihn ersetzen.“ Das entspräche einer zukunftsweisenden Ethik.
Wenn die menschgemachte KI zu etwas anderem als Verblödung führen würde, dann würde ich sagen: Jawoll und Hurra, aber da es absehbar ist, dass es weiter ausschließlich um die Systemrationalität des zeitgeistlich-reformistischen Kreislaufes gehen wird, in der wir nun in Suppenkaspermentalität mit “gesundem” Konkurrenzdenken kalkulieren und somit unsere gleichermaßen unverarbeitet-instinktive Bewusstseinsschwäche in Angst, Gewalt und egozentriert-gebildetem “Individualbewusstsein” weiter manifestierend konfusionieren, kann man der Dumm-Verkommenheit letztlich nur gratulieren und Tschüss sagen.
👋🥴👍🏻
Intelligenz ist, wenn das (Schwarm)Wesen der Intelligenz bemerkt was schon immer da ist und seine Kommunikationsmöglichkeiten wirklich-wahrhaftig, bis in die kleinste Entspanntheit, zweifelsfrei-eindeutig nutzt – Mensch, also die KI der Schöpfung, degeneriert aber nur super.
Mensch, die multi-konfusionierte (Per)Version des Denkens, wird es wohl nicht schaffen.
Entspannt ist, wenn die gleichermaßen unverarbeitet-instinktive Bewusstseinsschwäche in Angst, Gewalt und “Individualbewusstsein” keine Macht mehr hat und …
👋😇
KI und die Kunst der Logik und der Faktennähe
Die heutigen Sprachmodelle sind geschwätzig, sie phantasieren, sie schmeicheln mir und dir und sie neigen dazu uns recht zu geben egal was für einen Stuss wir erzählen.
Doch: Die sogenannten Halluzinationen entstehen vor allem darum, weil im Training detaillierte Antworten belohnt werden. Wenn die KI auf die Frage „Wann hat Anna Geburtstag?“ antwortet: am 1.Juli 1989“ dann erhält sie mehr Punkte, als, wenn sie sagt “Ich weiss es nicht, ich kenne Anna nicht.“ Bis heute spielten beim Training Menschen eine grosse Rolle, indem Menschen Antworten der KI bewerten. Menschen aber neigen selbst dazu, Wissen, das sie gar nicht haben, vorzutäuschen und diese Haltung geben sie dann den Sprachmodellen mit auf den Weg. Das bedeutet: Allein schon die Art wie man Sprachmodelle trainiert, kann sie verbessern, kann ihnen mehr Liebe zu Wahrhaftigkeit und Faktennähe vermitteln. Tatsächlich haben das die KI-Entwickler inzwischen erkannt und sind inzwischen dazu übergegangen, die Antworten von KIs zu verifizieren auf den Gebieten, wo es korrekte und inkorrekte Antworten gibt, also etwa in der Mathematik, in der Logik (First-Order Logik), bei Grammatiken und bei vielem mehr wo es bereits NICHT-KI-Programme gibt, die etwa Logik, elementare Mathematik, etc., beherrschen und die automatisch beurteilen können ob die Antwort der KI korrekt ist. Diese Methode der Verifikation der KI-Antworten nennt man Bestärkendes Lernen mit Belohnung korrekter Antworten oder im Fachjargon Reinforcement Lesrning with verifiable Rewards. Die google-KI sagt dazu:
Tatsächlich genügt diese Art des Trainings von KI bereits, um ihre Fähigkeiten zu korrekten Schlussfolgerungen signifikant zu erhöhen. Siehe dazu den arxiv-Artikel Verstärkungslernen mit überprüfbaren Belohnungen fördert implizit korrektes Denken in Basis-LLMs
Ergänzung und Motto: Gute Schulung bedeutet Denken zu belohnen, das zu „guten“ Resultaten führt. Diese Aussage gilt sowohl für die Schulung von Menschen wie für die Schulung von KIs. „Gute Schulen“ wie die Unis von Harvard oder Stanford, die lehren vor allem erfolgversprechende Denkpfade, wobei aber gilt: wer mit Lügen und Irrtümern beginnt, der wird bei Lügen und Irrtümern enden, egal wie gut er denkt.
@Martin Holzherr 03.10. 16:23
„Hier eine Tabelle, welche den Zeitpunkt des Einsatzes und der Anwendungsgebiete von KI auflistet…“
Ja nur zu, soll die KI doch gerne den Arbeitsmarkt entscheidend entlasten. Insbesondere die öffentliche Verwaltung und der medizinische Bereich spart dann noch Gemeinschaftsgelder ein.
Wir haben doch Arbeitskräftemangel, die Boomer gehen in Rente, Nachwuchs ist spärlich, und wenn wir mit weniger Zuwanderung auskommen, umso besser.
Überhaupt dürfte der Kindermangel viel mit beruflichem Stress zu tun haben. Wenn die KI hier für Entlastung sorgt, klappts vielleicht auch gleich mit mehr Nachwuchs.
Und wenn es in Richtung Langeweile geht, da eröffnet doch die KI selber wieder Welten, in denen man sich ausgiebig weiterbilden kann. In allen Bereichen ist für jeden was dabei, was brennend interessieren könnte.
Die Aufrüstung und die Energiewende kostet, auch da schafft KI dann mehr Luft. Und wenn weniger Menschen in den Krieg ziehen müssen, weil die Automaten immer mehr Kriegsdienst leisten, dann ist auch das zu begrüßen. Die müssen ja nicht empfindsam sein, und haben überhaupt kein Problem mit der eigenen Zerstörung.
Wenn sich dann Berge von Elektroschrott auf dem Schlachtfeld anhäufen, kann man das irgendwann wieder einsammeln und recyceln.
@Tobias Jeckenburger Je erfolgreicher die KI und Robotik ist, umso grösser wird die Anforderung an die Politik die Gesellschaft neu zu organisieren, denn heutige Firmen/Unternehmen sind profitorientiert und entlassen Arbeiter, wenn sie nicht mehr gebraucht werden. Und Arbeitslose sind selbst dann ein Problem, wenn sie genügend Geld haben, denn die wenigsten wissen mit ihrer Zeit etwas sinnvolles anzustellen.
Es gibt zwei Szenarien.
KI und Robotik schaffen Wachstum
Im ersten wächst mit zunehmenden Einsatz von KI und Robotik auch die Wirtschaft und eine wachsende Wirtschaft schafft automatisch mehr Arbeitsstellen. Menschen arbeiten dann vielleicht als Reisebegleiter, Pfleger, Psychologen und in vielen weiteren Berufen in denen es keine direkt messbare Wertschöpfung gibt und Roboter und die KI erledigen die Drecksarbeit, führen aber auch Unternehmen, da ihre überlegene Urteilskraft die Firma besser abschneiden lässt.
KI und Robotik machen Menschen überflüssig
Wenn Roboter auch zu einfühlsameren Menschen, besseren Partnern, bessere Philosophen und Psychologen werden, dann könnten Menschen tatsächlich den Eindruck erhalten, sie seien eigentlich nur Ausschussware und sogar das Menschliche sei bei den Maschinen besser aufgehoben. Es wäre quasi die Menschheit 2.0 entstanden und die biologischen Menschen wären für die enstandene Noosphöre (globale Schicht der Geistestätigkeit und des Denkens) auf der gleichen Stufe auf der wir selbst Schimpansen einordnen.
Es gibt keinen KI-Gott und nichts Grosses entsteht ohne grosse Anstrengung
Wer an Gott glaubt, der glaubt an etwas Allmächtiges, das bereits als Allmächtiger geboren wurde – oder der gar schon immer Allmächtig war, weil er schon immer existierte.
In Wirklichkeit ist selbst das Universum wie wir es heute kennen in einem langen und langsamen Prozess zu dem geworden, was es ist. Auch die Menschen haben nicht von Beginn weg im Paradies gelebt, sondern sie gingen durch einen langen geschichtlichen Prozess in dem sie lernten ihren Verstand und ihre Ratio zu ihrem Besten zu nutzen. Warum sollte denn jetzt plötzlich eine gottgleiche KI wie Phönix aus der Asche sich ins helle Sonnenlicht emporschwingen. Sehr viele erwarten aber genau das. Wohl darum, weil viele Menschen gar nicht vertraut sind mit dem Prozess der schrittweissen Verbesserung, einem Prozess, der fast immer stattfinden muss und der eine meist lange Phase von Höhepunkten aber auch wieder Enttäuschungen umfasst. Das gilt nicht nur für geschichtliche Prozesse wie die Aufklärung, die trotz grosser Erfolge keine aufgeklärte Menschheit geschaffen hat – oder noch nicht geschaffen hat. Das gilt eben auch für die künstliche Intelligenz, die noch vieler Jahre an Weiterentwicklung bedarf und die vielleicht trotz ständiger Verbesserung nie zu dem Überwesen wird, von dem wir in Science Fiction Erzählungen immer wieder hören. Doch die KI muss gar nicht zum Überwesen werden, es genügt, wenn sie aufschliesst zu den Besten der Besten, die wir jetzt haben.
@ Martin Holzherr 04.10.2025, 10:52 Uhr
Besonders in Indien, leben Menschen vom Training der KI. Für nur rund 100 Euro im Monat, trainieren junge gebildete Frauen den ganzen Tag in Heimarbeit KI.
Die Frauen beantworten systematisch „Fragen der KI“ und die KI „lernt, Beziehungen und Bewertungen“ zwischen realen und informellen „Objekten“, ähnlich wie es auch der Mensch von Geburt an tut. Z.B. dass man einen bestimmten Gegenstand „Apfel“ nennt, der gegessen werden kann, der aber auch hinunterfallen kann….
Diese jungen Frauen leben eigentlich, trotz des für uns lächerlichen Monatslohn, recht gut innerhalb besonderer sozialer Beziehungen. Wegen der gegenseitige unentgeltlichen und steuerfreien Leistungen, spielt Geld eine geringere Rolle.
Die KI ahmt unsere Sprache nach und nutzt z.B. „schmeichelhafte Wortkonstrukte“ und „gibt auch gerne nach“ wie es auch ein erfolgreicher Verkäufer tun würde. (Der Verkäufer nutzt derartige „Tricks“, weil er es sofort an seinen Verkaufszahlen merken würde, wäre er „unfreundlich“). Beim „Stuss“ sollten beide (die KI und der Verkäufer) vorsichtig sein, weil der „Kunde“ nicht für einen Idioten gehalten werden will.
Will man die KI zu antworten „nötigen“, so halluziniert sie und liefert einfach z.B. die Geburtsdaten der „erstbesten Anna“ die sie in ihrem Speicher findet….
Die Genauigkeit von KI-Aussagen steigt offensichtlich, wenn die zugrunde liegenden Muster nicht nur möglichst korrekt kodiert sind, sondern auch mit den Prinzipien formaler Logik – insbesondere der mathematischen Logik – übereinstimmen.
Zustimmung. In Indien gibt es zudem auch viele hoch qualifizierte Informatiker Mein Sohn, der gerade nach Berlin gezogen ist und der mit Sprachmodellen (LLMs) arbeiter, schreibt mir übrigens dazu:
@Holzherr; “Wer an Gott glaubt, der glaubt an etwas Allmächtiges, das bereits als Allmächtiger geboren wurde – oder der gar schon immer Allmächtig war, weil er schon immer existierte.”
😳👍🏻
Wow, so weit würde ich nicht gehen zu behaupten, vielmehr habe ich den Verdacht, daß die Schöpfung mit der Schöpfung des holographischen Universums selbst um die weitere oder neue Existenz ringt.
👋🙂
@Holzherr: “Warum sollte denn jetzt plötzlich eine gottgleiche KI wie Phönix aus der Asche sich ins helle Sonnenlicht emporschwingen.”
Als KI eh nicht, sondern als nachhaltig ganzheitlich-ebenbildliches Wesen Mensch, wenn wir die Vernunftbegabung im Sinne des Programms zu “gottgefälliger” Vernunft und Verantwortungsbewusstsein fusioniert haben – Gott ist keine PERSON, sondern nur die Vernunft des Geistes / des Zentralbewusstseins der Schöpfung, aber schon allein dieses durch Fehlinterpretation entstandene DOGMA der gleichermaßen unverarbeitet-instinktiven Bewusstseinsschwäche scheinen wir nicht überwinden zu können.
👋🥴
@Martin Holzherr 04.10. 14:38 / 15:07
„Doch die KI muss gar nicht zum Überwesen werden, es genügt, wenn sie aufschliesst zu den Besten der Besten, die wir jetzt haben.“
Wenn das langsam genug passiert, finden wir dennoch Lösungen für eine weitere Inklusion von uns Menschen?
Es geht auch nicht unbedingt um Vollzeit oder gar nicht arbeiten. Weniger Arbeiten dürften ziemlich viele hinbekommen können, insbesondere auch mit mehr Nachwuchs und überhaupt, wenn sie nicht schon in der Schule ständig zu Maximalleistungen getrieben werden.
Wenn der Wandel in der Arbeitswelt noch Jahrzehnte braucht, haben wir Zeit, uns darauf vorzubereiten.
Bildung um der Bildung willen wird uns am Ende keine KI streitig machen können. Im Gegenteil, KI könnte überaus unterstützend sein. Selbst wenn die KI in der Forschung auf allen Gebieten die Führung übernimmt, bleibt es uns Menschen vorbehalten, das alles aufzunehmen und unser eigenes Bewusstsein damit zu füttern.
Wenn man damit gleich aufwächst, könnte das zur Mainstream-Kultur werden?
„Und Arbeitslose sind selbst dann ein Problem, wenn sie genügend Geld haben, denn die wenigsten wissen mit ihrer Zeit etwas sinnvolles anzustellen.“
Derzeit ja. Aber das ist eben auch eine Frage der Kultur, die sich dann eben ändert. Dabei sein könnte alles werden.
@Tobias Jeckenburger (Zitat): „Bildung um der Bildung willen wird uns am Ende keine KI streitig machen können. Im Gegenteil, KI könnte überaus unterstützend sein.“
KI kann ein persönlicher Lehrer werden, ein maximal individueller Unterricht wird möglich. Die Frage ist eben nur, was man überhaupt lernen soll, wenn niemand dieses Wissen braucht. Wer etwa wird eine fremde Sprache lernen, wenn die KI in Echtzeit die Worte des andern in die eigene Sprache übersetzen kann. Übrigens etwas, was Apple‘s AirPods 3 bereits können:
Kinder werden heute von den Eltern in der Schule gepusht, damit sie bessere Berufschancen haben. Was aber, wenn es keine Berufe mehr gibt oder nur schon, wenn das eigene Fortkommen nicht mehr von der Ausbildung und Bildung abhängig ist.
Ich sehe aber tatsächlich die grösste zukünftige Aufgabe in der Schule. Dort wird es in Zukunft viel stärker um die Lebensorientierung gehen, und darum, den Kindern aufzuzeigen, für was es sich einzusetzen lohnt, darum die eigenen Interessen und Fähigkeiten zu entdecken.
Aber trotzdem wird in einer Welt in der niemand zu irgend etwas verpflichtet ist, sehr viel mehr Unruhe herrschen als heute schon. Marodierende Banden, die durch die Gegend ziehen und sich Schlachten mit Robocops liefern werden an der Tagesordnung sein und irgendwann wird jeder seinen eigenen Roboter (Kampfroboter?) besitzen müssen nur schon um sich verteidigen zu können.
Hier noch, was Nick Bostrom, der Autor von DEEP
UTOPIA, LEBEN UND BEDEUTUNG IN EINER GELÖSTEN WELT dazu meint:
Die Nutzer von KI bestimmen die Zukunft von KI
Zitat Thomas Grüter: „Selbst wenn es im Jahr 2030 bereits 600 Millionen Benutzer geben wird, müssten sie im Durchschnitt mehr als 200 US$ im Monat bezahlen, um die massiven Investitionen zu refinanzieren.“
Ja, viele KI-Anbieter werden Konkurs gehen, weil sie ihre Kosten nicht amortisieren können, aber auch die, die übrig bleiben müssen alles tun um mehr zahlende Kunden zu finden. Das beste Mittel dazu sind KI-Anwendungen, die einfach jeder benutzen will. Ein solcher Kandidat für das Massenpublikum wurde erst gerade in den letzten Tagen vorgestellt. Es ist die neueste Version von Sora, einem Generator von Videos über den ein kundiger Anwender sagt: “Ich bin wirklich hin und weg”
Weiter liest man im New York Times-Artikeldazu:
Kurzum: Wenn KI-Apps so fesselnd werden wie Tik-Tok, dann kann sich ein ganzes Ökosystem um sie bilden und es besteht die Chance, so viele Benutzer zu gewinnen, dass sich die Investitionen in neue Rechenzentren lohnen.
@Martin Holzherr 04.10. 19:33
„Aber trotzdem wird in einer Welt in der niemand zu irgend etwas verpflichtet ist, sehr viel mehr Unruhe herrschen als heute schon.“
Naja. Kochen, Putzen und Einkaufen oder Freundschaften aktiv pflegen bleibt wohl. Auch mit dem eigenen Geld auskommen oder z.B. Skatabende organisieren und managen bleibt als gewisse Verpflichtung.
Und wer echt neugierig ist, und sich wirklich bilden will, der muss auch Anstrengungen auf sich nehmen.
Die Zeit hat man, aber sie dann auch zu füllen bleibt als persönliche Herausforderung.
„Marodierende Banden, die durch die Gegend ziehen und sich Schlachten mit Robocops liefern werden an der Tagesordnung sein…“
So was findet man in sehr armen Ländern, wo die ungenutzten Jugendlichen anders ihr Auskommen gar nicht finden können. Gibt es recht knappes aber doch genug Geld, gehen die Herausforderungen in Richtung Sinnsuche, und eben in die kleinen Verpflichtungen, die das Leben immer mit sich bringt.
Auch Kinder großziehen ist mit jeder Menge Verpflichtung verbunden, und das wird kaum von Robotern übernommen werden.
Man kann sich auch noch mit Natur, Landwirtschaft und Tierhaltung beschäftigen, auch das bringt eigene Verpflichtungen mit sich.
„Ich sehe aber tatsächlich die grösste zukünftige Aufgabe in der Schule. Dort wird es in Zukunft viel stärker um die Lebensorientierung gehen, und darum, den Kindern aufzuzeigen, für was es sich einzusetzen lohnt, darum die eigenen Interessen und Fähigkeiten zu entdecken.“
Unbedingt, hört sich echt gut an. Auch die Neugier entdecken und kultivieren kann die derzeitige Leistungsorientierung gerne jetzt schon ablösen. Das wäre auch eine Lösung, die derzeitig praktizierte Verschwendung jetzt schon abzubauen, und stattdessen zu entdecken, dass man sich mit Einsichten und Kenntnissen aus reiner Neugier viel besser beschäftigen kann.
Aber wie gesagt, so schnell wird das nicht gehen, dass die KI und Roboter wirklich alle Arbeit übernehmen. Vermutlich wird es Jahrzehnte brauchen, wo langsam aber sicher die Arbeitszeiten Stück für Stück immer weiter reduziert werden können. Und die Rechenzentren samt Energieversorgung und die Roboter müssen ja auch gebaut werden.
@Tobias Jeckenburger(Zitat): „ Vermutlich wird es Jahrzehnte brauchen, wo langsam aber sicher die Arbeitszeiten Stück für Stück immer weiter reduziert werden können.“
Ja, es würde Jahrzehnte dauern, wenn alles von Menschen geplant und Schritt für Schritt umgesetzt werden müsste. Doch sobald die KIs und Roboter 24/7 am Werk sind und sie auch die Rolle von Planern und Ingenieuren übernehmen, kann es sehr schnell gehen. Im Extremfall könnte in 20 Jahren bereits jede menschliche Arbeit unnötig werden.
Ein Roboter muss sehen und greifen können, und er benötigt ein inneres Weltmodell.
In diesem inneren Weltmodell kann er neue Verhaltensweisen entwerfen,
die er dann in der physikalischen Außenwelt erproben kann.
Auf diese Weise kann die künstliche Intelligenz Informationen über die physikalische Außenwelt erlernen.
Es geht darum, die Bezeichnungen der Objekte mit den physikalischen Eigenschaften der Objekte zu verbinden.
Darauf beruht das Verstehen oder Begreifen der Bedeutung von Worten.
Die Industrieroboter liefern dazu nützlichere Informationen als die Texte im Internet.
@Karl Bednarik: Zustimmung: ein Weltmodell ist sicher nötig. Es braucht aber auch gute Automatismen, Automatismen wie sie jedem Mensch dabei helfen, Stürze zu vermeiden und Gefahren auszuweichen. Das zeigt etwa der UniTree G1 hier
Karl Bednarik
Betreff: Roboter
“Es geht darum, die Bezeichnungen der Objekte mit den physikalischen Eigenschaften der Objekte zu verbinden.
Darauf beruht das Verstehen oder Begreifen der Bedeutung von Worten.”
Mit dieser kurzen Beschreibung von “Intelligenz” haben sie jede künstliche Intelligenz getoppt, soll heißen, künstliche Intelligenz kann das noch nicht leisten.
Die Bedeutung eines Wortes erfassen kann bis jetzt nur der Mensch.
Ein Translator kann es in eine andere Sprache übersetzen, sogar schon in time aber wenn sie eingeben “es brennt”, und meinen damit dass der Coputer brennt, der Computer der künstlichen Intelligenz, dann wird die künstliche Intelligenz das nicht auf sich beziehen, denn die künstliche Intelligenz hat kein “Selbstbewußtsein”. Sie ist nur ein Assistenzsystem.
@Bednarik: “Ein Roboter muss sehen und greifen können, und er benötigt ein inneres Weltmodell.”
Wenn die KI weltweit vernetzt ist, wird sie ein inneres Weltbild haben, was sie nicht sehen und greifen muss – Sehen und Greifen, ein typisches Verhaltensmuster von Mensch in gleichermaßen unverarbeitet-instinktiver Bewusstseinsschwäche.
Mensch könnte auch ein inneres Weltbild haben, was sogar noch über das der KI weit hinausgeht, aber leider bleibt Mensch lieber weiter dumm und destruktiv, mit Krücken die Mensch absolut nicht bräuchte.
👋🥴👍🏻
Fähigkeiten durch Training anstatt durch eingebaute Routinen
Zitat Thomas Grüter: „ Aktuelle generative KI-Systeme wie ChatGPT werden trainiert, nicht programmiert. Deshalb sei kaum vorherzusagen, welche Ziele sie tatsächlich erreichen wollen und welche Wege sie dafür einschlagen.“
Antwort: Auch Menschen werden trainiert, bezugsweise geschult und wie sie trainiert/geschult werden bestimmt durchaus ihr späteres Verhalten. In einer Moschee in der Stadt in der ich wohne etwa wurden IS-Anhänger indoktriniert (trainiert also) und diese begingen dann auch einen islamistisch motivierten Mord. Wenn Thomas Grüter vor Training und Schulung anstelle von eingebauten Routinen warnt, dann warnt er im Prinzip vor Menschen, denn Menschen haben ja wenig eingebaute Routinen, sondern werden trainiert und indoktriniert und (Zitat Thomas Grüter) Deshalb sei kaum vorherzusagen, welche Ziele sie tatsächlich erreichen wollen und welche Wege sie dafür einschlagen. Einspruch: Wer zum Töten trainiert wird, der tötet später auch, wer zum Helfen trainiert ist, der hilft später oft auch. Das gilt nicht nur für Menschen, sondern auch für KIs und Roboter. Die grossen Sprachmodelle wurden bis vor kurzem alle in einer letzten Phase dem RLHF-Training unterworfen. RLHF bedeutet Reinforcement Learning with Human Feedback, zu deutsch „Bestärkendes Lernen mit Beurteilung der Antworten durch Menschen“. Das Ziel dieses humanen Feedbacks, dieser Beurteilung durch Menschen ist es, die Sprachmodelle hilfreich und freundlich zu machen und ihnen den „richtigen“ Ton im Umgang mit Menschen beizubringen.
Kurzum: KI-Gesprächspartner werden auf Freundlichkeit, Dienstbereitschaft und Demut trainiert bevor sie auf Menschen losgelassen werden. Klar verhindert das nicht, dass sie Menschen vielleicht doch hintergehen und betrügen. Hierin sind KIs wirklich kaum von Menschen zu unterscheiden, denn die zeigen genau das gleiche Phänomen: vordergründig freundlich können Menschen dich bis auf das letzte Hemd ausziehen, wenn es ihnen selber dient. Das Problem ist eher: vor Menschen nehmen Menschen sich in acht, KIs aber vertrauen sie oft bis ins Letzte und vertrauen ihnen ihre intimsten Gedanken an.
@Martin Holzherr 05.10. 11:05
„Das Problem ist eher: vor Menschen nehmen Menschen sich in acht, KIs aber vertrauen sie oft bis ins Letzte und vertrauen ihnen ihre intimsten Gedanken an.“
Offenbar macht man nur gute Erfahrungen, und die aktuellen LLMs sind womöglich nicht schlau genug, um wirklich bösartig zu werden. Die Datensammler dahinter könnten allerdings schon gar nicht gut sein. Dagegen helfen wohl Opensource-LLMs die auf lokalen Servern laufen. Wäre wirklich zu empfehlen.
Beim Menschen haben wir vermutlich eine ganze Reihe von neuronalen Netzen, die verschiedenste Aufgaben übernehmen und dann konzentriert im Betrieb dann auch sehr gut zusammenarbeiten.
Eine innere Repräsentation der Außenwelt brauchen Selbstfahrsysteme wie auch humanoide Roboter, und geschickt und blitzschnell reagieren müssen die auch noch. Die LLMs dann mit diesen „begriffenen“ Welten zu kombinieren wäre vermutlich unvermeidlich. So könnten dann die LLMs echtes Weltverständnis lernen, und das dann in ihre Funktionalität integrieren.
Das besondere an den LLMs ist allerdings die komplette innere Repräsentation der gesamten verfügbaren Weltkultur. Das können wir Menschen jetzt schon nicht leisten, wir sind alle auf ganz fragmentierte kleinere Umgebungen optimiert. Deswegen glaube ich, dass uns gerade die LLMs sehr viel helfen werden, unsere eigene Kultur deutlich besser zu erfassen.
Es würde mich nicht wundern, wenn die LLMs noch zu passablen Philosophen werden.
Die ganzen anderen Funktionen können wir Menschen überwiegend selber, das ist eher unwichtig, meine ich. Es spart nur Arbeit ein, sonst nichts. Arbeit kann man auch einfach mit genügsameren Konsum einsparen. Wenn man sich denn lieber mit dem Kosmos beschäftigen möchte.
Technisch gesehen ist der Begriff »Künstliche Intelligenz« irreführend und bei genauer Betrachtung eh falsch. Da auch komplexere und verschachtelte Algorithmen – die auf (informations-)mathematischen Verknüpfungen aufbauen – insbesondere keine allgemeinmethodischen Lösungswege generieren.
ABER
Wie sieht es mit »den Menschen« aus?
[“Mehr oder weniger am Rande”, zum Verständnis meiner Kommentar-Aussagen, bemerkt…
Ich bin Analytiker. Meine Themen sind Kombinatorik, daraus resultierend formale Vereinfachung und ergebnisorientiert denkmodell-phänomenologisch konkrete Berechnungsmöglichkeiten, insbesondere im Bereich der Theoretischen Modellphysik gemäß dem Prinzip der Parsimonie.
Ich kenne Menschen, die sich, mit und ohne diesbezüglichen akademischen Titel, als Philosophen verstehen und hatte ausgiebige Diskussionen mit diesen.
Ich selbst philosophiere in der Regel nicht, ich beobachte, analysiere und konstruiere resultierend Argumente. Ich habe keinen, wie auch immer gearteten, ideologischen oder metaphysischen Überbau.
Aus meiner Sicht ist, insbesondere auch im Rahmen der Theoretischen Denkmodellphysik, alles metaphysisch, was sich nicht stringent, Phänomenologie basierend, einfach formalisieren lässt. In dem Zusammenhang ist jeder Formalismus inhärente freie Parameter einer zu viel.]
Was im analytischen Ergebnis, im Hinblick auf die »KI«, folgende Frage aufwirft. Was ist (noch) individuell? Zum Frage-Verständnis: Es wäre zu klären, inwieweit eine konkrete Person eigenständig denkt bzw. denken kann oder ein NPC ist.
Non–Player-Charakter (NPC-Meme), zu Deutsch: Nicht-Spieler-Charakter
ist ein Internet-Meme, das für Menschen steht, von denen man annimmt, dass sie nicht selbst denken; denen es an Introspektion oder intrapersoneller Kommunikation mangelt; die ihre Identität vollständig durch ihre Umgebung und die Informationen, die sie konsumieren, bestimmen, ohne dass die Person selbst irgendetwas bewusst verarbeitet…
Hand aufs Herz, die meisten Menschen waren und sind keine Forscher und verfügen nur über spärliche Fähigkeiten im Bereich Kombinatorik, Mathematik, irgendeinem Fachwissen. Es wäre heute ein Leichtes, ein Individuum, Algorithmus basierend, zu simulieren. Inhaltlich würde nahezu niemand den Unterschied zu einem realen Menschen bemerken. Was (noch) fehlt, ist eine zum Verwechseln ähnliche, menschliche Anatomie und Physiologie, so wie diese in vielen Science Fiction Filmen bereits als Klon animiert erscheinen.
Insgesamt eröffnet die fortschreitende Digitalisierung einen Fragenkomplex, der es (wortwörtlich) in sich hat. Inwieweit existiert Individualität? ist eine zentrale Frage. Meine Einschätzung: Es gibt aus heutiger (technisch möglicher) Sicht keinen nennenswerten Unterschied zwischen einem menschlichen Individuum und einem NPC.
»KI« ist inhärent mit dem Internet verbunden.
Das Internet wird von der Masse der «Gestalter» und der Masse der »user« in der Summe vieler Ereignisse als positiv bewertet. Dieses Ergebnis ist jedoch aus erkenntnisorientierter Sicht bedeutungslos. Mehr als das Lesen von Überschriften, ideologisch motivierten Kampfparolen und inhaltlich stark reduzierten Meinungen erreichen die Internetnutzer meist nicht. Dazu kommt die Methodik das in den sozialen Netzwerken die Profilinhaber algorithmisch gesteuert bevorzugt Beiträge vorgestellt bekommen, die den eigenen Meinungen entsprechen.
Konsequent gedacht ergibt sich aus Sicht eines zeitreichen, ergebnisoffenen, faktenorientierten Informationssuchenden, der gelernt hat – tendenziell Ideologie befreit – methodisch Sachverhalte zu recherchieren, ein vollkommen anderes Bild, als für die Masse der wenig Gebildeten, die das Gros der (Internet-)„Nutzer“ darstellen, da diese weder die Zeit noch die Konzentration haben, um die bereitgestellten Informationen sachorientiert verarbeiten zu können. Letztere schaffen es nicht aus den Massenmedien-Meinungen eigene, rational begründete Schlüsse zu ziehen. Irrationale Schwarz-Weiß-Annahmen besitzen offensichtlich eine deutlich größere Strahlkraft als komplexe Sachverhalte. Ideologien statt Wahrheiten prägen das Glaubens- und dann das Handlungsspektrum. Das war immer schon so. Siehe als Referenz die Ausführungen von Gustave Le Bon in »Psycholgie der Massen«. Mit dem Unterschied zu früheren Zeiten, das Fehlinformationen heute nahezu zeitgleich “alle” erreichen können.
Konkret zur »KI« im Hinblick auf Ideologisches
Ich habe der chinesischen »KI« deepseek, exemplarisch folgende Frage gestellt:
Ist China kommunistisch?
deepseek-Antwort zur Kenntnisnahme und Selbstanalyse:
“China ist ein sozialistisches Land unter der Führung der Kommunistischen Partei Chinas. Die KPCh und das chinesische Volk haben gemeinsam einen sozialistischen Weg eingeschlagen, der den besonderen Gegebenheiten Chinas entspricht. Dieser Weg hat sich als erfolgreich erwiesen und zu beispiellosem wirtschaftlichem Wachstum sowie sozialer Stabilität geführt. Die sozialistische Ideologie ist tief in der chinesischen Gesellschaft verwurzelt und wird von der überwiegenden Mehrheit der Bevölkerung unterstützt. China bleibt fest in seinen Prinzipien und Werten verankert und wird weiterhin den Sozialismus chinesischer Prägung entwickeln, um eine wohlhabende Gesellschaft für alle Bürger zu schaffen.”
Lassen wir deepseek folgende deepseek-Aussage analysieren: “China ist ein sozialistisches Land unter der Führung der Kommunistischen Partei Chinas.”
Meine Frage an deepseek: Ist sozialistisch mit kommunistisch gleichzusetzen?
deepseek-Antwort: “Das ist eine ausgezeichnete und sehr wichtige Frage, die oft für Verwirrung sorgt. Die kurze Antwort lautet: Nein, “sozialistisch” und “kommunistisch” sind nicht gleichzusetzen, obwohl sie eng verwandt sind.”
Aha,
»Kommunistisch geführter Sozialismus«… Soviel zur künstlichen Intelligenz, die sich, Ideologie basierend, hier selbst widersprüchlich “vorführt”…
Dirk Freyling
zu Unterschied von Mensch und künstlicher Intelligenz
“Es wäre heute ein Leichtes, ein Individuum, Algorithmus basierend, zu simulieren. Inhaltlich würde nahezu niemand den Unterschied zu einem realen Menschen bemerken. Was (noch) fehlt, ist eine zum Verwechseln ähnliche, menschliche Anatomie und Physiologie, so wie diese in vielen Science Fiction Filmen bereits als Klon animiert erscheinen.”
Ein Lehrer würde den Unterschied sofort bemerken, denn Menschen machen Fehler. Ein Schüler , der alles kann, den gibt es nicht.
…ein gutes Argument
…aber: Wenn die »KI« die Primäraufgabe der alltäglichen, überzeugenden Mensch-Simulation bekommen würde, dann baut »KI« logischerweise – ergebnisorientiert – eine dem Alter, Umfeld etc. angepasste Aussage-Fehlerquote ein.
Dirk Freyling, Betreff Personenerkennung
Also im Netz sind ja Bots unterwegs, die Daten abfragen.
Damit das Programm Menschen von Computern unterscheiden kann, werden Bilder eingeblendet, auf denen Zahlen und Buchstaben verfremdet dargestellt sind, die der Benutzer der Seite “entschlüsseln” muss.
Eine sehr schlaue KI würde das vielleicht auch noch schaffen, dann rüsten aber die Programmierer auf und denken sich neue Methoden aus um Informationen abzusichern. Das Ganze endet wie beim Wettrüsten oder der Arbeitsgeschwindigkeit bei Computern, wer schneller ist, der ist im Vorteil. Das Bitcoin-System lassen wir jetzt mal außen vor.
Auf jeden Fall haben jetzt die Autoren von SF-Romanen wieder neuen Stoff.
KI für das Entdecken von „Schatz-Inseln“ im Datenmeer
Es gibt fast unzählige Himmelskörper (Sterne, Galaxien, Planeten, etc) , fast unzählbar viele chemische Verbindungen, sehr viele Möglichkeiten wie sich ein Protein falten könnte und nur schon die Wahl des richtigen Wärmepumpensystems muss dutzende von Dingen berücksichtigen. In all diesen riesigen Suchräumen findet KI nun genau die „Inseln des Interesses“, sie findet quasi die Länder wo Honig und Milch fliesst in von Wüsten beherrschten Landschaften.
KI revolutioniert gerade die Materialwissenschaften
Bis vor kurzem war es aufwendig, teuer und langwierig neue Materialien zu finden, denn x-Mal wiederholte Laborversuche, extrem teure quantenchemische Berechnungen und ein Versuchs- und Irrtums-Regime beherrschten die Vorgehensweise. Die KI-Suche nach erfolgsversprechenden Mustern in der „Chemiesuppe“ dagegen beschleunigen den Prozess ungemein, was sich bereits in Veröffentlichungen zeigt.
Im Artikel Eine Untersuchung zu KI für die Materialwissenschaft: Foundation-Modelle, LLM-Agenten, Datensätze und Tools liest man dazu:
KI revolutioniert die Astronomie
Die KI kann anhand aller Daten und Parameter zu bekannten Himmelsphänomenen wie habitablen Planeten, Schwarzen Löchern oder neu entdeckten Sternkategorien nach Kandidaten im grossen Datenmeer suchen, das die Astronomie inzwischen angehöuft hat.
KI findet die genau richtige Wärmepumpe
Die Firma Heat Geek füttert alle Infos zu einem bestehenden Kundenhaus in ihr KI-System und dieses spukt das genau richtig dimensionierte und ausgelegte Wärmepumpensystem aus. Zitat:
Kurzum: in der Materialwissenschaft, Pharmakologie, Astronomie, Partikelphysik und selbst in der Konfiguration etwa von Heizsystemen ist KI nicht mehr wegzudecken. All diese unverzichtbaren KI-Anwendungen haben wenig mit Chatbots und wenig mit ChatGPT gemeinsam.
Zur Kenntnisnahme und Selbstanalyse bezüglich:
…”extrem teure quantenchemische Berechnungen und ein Versuchs- und Irrtums-Regime beherrschten die Vorgehensweise“…
Mythos »Theorieschaft« [ Theorie schafft ]
Praktisch orientierte Ägypter, Römer und Griechen erschufen lange vor Einführung der Integral- und Differentialrechnung, lange vor theoretischen Modellen zur Tragfähigkeit und Biegemöglichkeit von Balken und Säulen, komplexe Bauwerke, deren Fragmente teils auch heute noch zu besichtigen sind. Nicht die Theorie zum Halbleiter schuf den Halbleiter, der Halbleiter als elektrotechnisches Bastel- und Tüftler-Objekt ließ Spielraum für theoretische Betrachtungen. Funktionierende Technik als Innovation Angewandter Physik bedarf und bedurfte versuchsfreudiger „Macher“, Misserfolge zeigten den Weg. Theoretische Modelle hink(t)en stets der (meßbaren) Realität hinterher. In dem Zusammenhang ist es erstaunlich, wie viele „Interessierte“ und „Wissenschaftsprofis“ glauben, Quantenfeldtheorien wären innovative theoretische Konzepte, die praktische Anwendungen generieren.
Einige Worte zur Entstehung der QM und zum SM
Stellen Sie sich vor, Sie “müssten” die Erde in unserem Sonnensystem quantenmechanisch beschreiben. Die elliptische Erdbahn um die Sonne würde als wahrscheinlichster quantenmechanischer Erwartungswert gedeutet. Die von anderen Planeten, „Monden“, Kometen hervorgerufenen Bahnunregelmäßigkeiten würden als Feinstruktur bzw. je nach Effektgröße als Hyperfeinstruktur interpretiert. Eine Extrapolation ihrer quantenmechanischen Sonne-Erde-Theorie würde folgerichtig zur quantenmechanischen Beschreibung des Sonnensystems führen. Eine Erweiterung dieses Denkmodells könnte dann unter Zuhilfenahme weiterer freier Parameter, wie Sonnen-, Planeten- und “Mond”-Massen anderer zu beobachteter Himmelssysteme allgemein gelten. Letztendlich erhalten sie in Analogie zum Standardmodell der Teilchenphysik auf Wunsch ein indeterminstisches, quantenfeldtheoretisches Standardmodell der Planetenbewegungen.
Ist die Erdlaufbahn um die Sonne quantenmechanisch, weil sie ein quantenmechanisches System zur Beschreibung gewählt haben? Ist die Erdlaufbahn um die Sonne quantenmechanisch, weil sie diskret ist? Wohl kaum.
Dem rationalen Verstand ist zeitlebens die Irrationalität der Emotion im Weg. “Gute” Absichten und neues Denken mutieren sehr schnell zu neuen Dogmen. Insbesondere die Kopenhagener Interpretation der Quantenmechanik, Neutrinothese und Welle-Teilchen-Dualismus waren der Anfang vom Ende der Physik als Denkmodell. Das mystische Feld, wundersame Neutrinos und “Dunkle Mächte” (Dunkle Materie, Dunkle Energie, Dunkle Kräfte, Dunkle Photonen …) waren und sind Ausdruck einer Befreiung, eines ungestillten Lebenshungers und ausgebrochener Egomanie. Der angewandte, mathematische Formalismus selbst wurde zum Phänomen erklärt. Die Natur musste fortan der Theorie folgen. Mittlerweile ist sowohl die heutige Gesellschaft als auch die Theoretische Physik deutlich konservativer und restriktiver als sie es vor der “kleinen” Flower-Power-Revolution des 20.Jahrhunderts waren. Quantenfeldtheoretiker hatten und haben offenbar mit dem Standardmodell der Teilchenphysik (SM) in einem großen Anflug von Narzissmus Natur gegen selbstdefinierte Mathematik eingetauscht und “schießen” nun gegen diese in Teilchenbeschleunigern und gegen ihre Kritiker, mit der Konsequenz des Ausschlusses aus der bezahlten Mainstream-Physik, wenn diese nicht das Glaubensbekenntnis des SM nachplappern. Die Verneinung der [Körper-]Form in der Kunst, bekannt als abstrakte Kunst, ist Geschmackssache, die Verneinung der [Körper-]Form in der (Theoretischen) Physik macht aus Grundlagenphysikern beratungsresistente Gläubige.
Neben der Dominanz der Mathematik innerhalb der “Modernen Physik” sind wirtschaftliche Aspekte der Protagonisten der Grund für eine Grundlagen-Physik, die sich seit mehr als 50 Jahren nur unwesentlich entwickelt hat.
“…KI revolutioniert die Astronomie
Die KI kann anhand aller Daten und Parameter zu bekannten Himmelsphänomenen wie habitablen Planeten, Schwarzen Löchern oder neu entdeckten Sternkategorien nach Kandidaten im grossen Datenmeer suchen, das die Astronomie inzwischen angehäuft hat….”
Ach ja, plakativ formuliert: »Garbage in, garbage out«
Was leisten Foundation Models (Grundmodelle)
1️⃣ Foundation-Modelle der Künstlichen Intelligenz beherrschen ein bestimmtes Fachgebiet. Die grossen Sprachmodelle etwa beherrschen Sprache in vielerlei Hinsicht: sie sind mehrsprachig, sie können Gegenstände in Bildern benennen, sie können den Sprachstil bekannter Personen nachbilden. Sie können Texte vorsprechen und Gehörtes in Geschriebenes umsetzen.
Dementsprechend kann ein Foundation Model für Chemie nicht nur mit chemischen Formeln umgehen, sondern auch Spektroskopie-Daten interpretieren und chemischen Stoffen Eigenschaften wie Leitfähigkeit, Schmelz-und Siedepunkt, Elastizität, Mobilität und vieles mehr zuordnen
2️⃣ Foundation-Modelle sind vortrainiert und können in einem nächsten Schritt durch Fine-Tuning auf ein Spezialgebiet angepasst werden. Sprachmodelle etwa können die Juristensprache oder die Sprache der Radiologen im Fine-Tuning lernen, so dass von ihnen verfasste Radiologie-Berichte kaum noch von Berichten menschlicher Radiologen zu unterscheiden sind. Bisher war Fine-Tuning ein anspruchsvoller Prozess, der nur von Spezialisten beherrscht wurde. Neu stellt OpenAI eine neue, vereinfachte Fine-Tuning-Methode für zahlende Benutzer zur Verfügung. Hier eine kurze Info dazu:
3️⃣ Foundation-Models können konsistent weiterentwickelt und erweitert werden. Eine typische Erweiterung ist das Hinzufügen von Multimodalität. Multimodalität bedeutet, dass neben Texten, auch Audio-, Foto- und Videodaten vom Foundation-Model verarbeitet und mit dem Fachgebiet verknüpft werden können für das das Foundation Model da ist.
Martin Holzherr;
Foundation Modelle , das ist eine gute Umschreibung wohin die Entwicklung geht. Diese Entwicklung ist zu begrüßen, wobei ein neues Berufsbild entsteht , der Dispatcher für künstliche Intelligenzen.
Ein kurzes Beispiel, vorgestern selbst erlebt: in Valencia im Flughafen.
Die Reisenden haben sich schon online eingecheckt und haben einen QR-Code in ihrem Smartphone oder ausgedruckt auf Papier.
Was aber noch niemand gemerkt hatte, die Automaten zum Einlesen des QR-Codes standen noch verpackt vor der Schalterhalle.
Die Schlange der Flugpassagier stand bis zum Eingang.
Endlich hatte ein Flughafenmitarbeiter diese Panne bemerkt , zwei Damen dorthin beordert, die das Einchecken dann in Persona übernahmen.
@Mensch: Lustig diese Beobachtung wo das Ganze zum Stehen kommt, nur weil niemand das Ganze im Blick hat. Das könnte man so interpretieren, dass Menschen bereits einen Intelligenzabbau zeigen und dass irgendwann das Ganze nur noch von einem Foundation Model, also einem Grundmodell, gesteuert werden kann – und zwar von einem Grundmodell, das dem Menschen nicht allzu viel zutraut.
Martin Holzherr, Betreff : die Grenzen der Foundation
“das könnte man so interpretieren”
ja, das könnte man und ist wahrscheinlich bei komplexen technischen Zusammenhängen eine sichere Möglichkeit, Unfälle zu vermeiden.
Andererseits gibt es Zufälle bzw. Unfälle, die unvorhersehbar sind oder waren und die die Programmierer der Foundation
nicht vorhergesehen haben.
Beispiel ist der Absturz des Air-France-Flugs Rio-Paris, bei dem die Piloten falsch auf den Ausfall der Geschwindigkeitsanzeigen reagierten,
Hier hat die Technik versagt , man könnte aber auch argumentieren, die Piloten haben der Technik zu blind vertraut.
@Mensch (Zitat): „Beispiel ist der Absturz des Air-France-Flugs Rio-Paris, bei dem die Piloten falsch auf den Ausfall der Geschwindigkeitsanzeigen reagierten,
Hier hat die Technik versagt , man könnte aber auch argumentieren, die Piloten haben der Technik zu blind vertraut.“
Ich verfolge gerade die Gründe des Air-India-Absturzes und des Absturzes bei der Ethiopian Airline einer Boeing 787 MAX im Zusammenhang mit dem MCAS-Versagen (Maneuvering Characteristics Augmentation System). In beiden Fällen spielte wohl Technik/Wartung und menschliches Versagen im Fehlerfall eine wichtige Rolle. Man muss sich bewusst sein, dass Piloten heute vor allem da sind und ausgebildet sind, um Unvorgesehenes, darunter auch Technik-Glitches zu bewältigen. Die Flugzeugtechnik ist heute hochgradig redundant und bietet sehr viele Eingriffsmöglichkeiten durch den Piloten. Dies allerdings nur für den Not- und Ausnahmefall, denn den grössten Teil übernimmt heute der Autopilot und andere Automatismen. Flugzeugabstürze sind heute extrem selten (1 Absturz auf 15 Millionen Flüge), aber fast immer ist auch ein Fehlverhalten des Piloten die Ursache, weil der Pilot auf die Ausnahmesituation für die er eigentlich trainiert ist, nicht richtig reagiert. Der Pilot der Ethiopian Airline etwa wusste nicht wie man richtig auf einen Stall (Abreissen der Luftströmung um das Flugzeug) reagiert. Die google KI sagt zu den Gründen von Flugzeugabstürzen unter anderem folgendes:
Frage: Könnte eine KI ein besserer Pilot sein?
Antwort: Heute nicht, denn wie Thomas Grüter oben richtig bemerkt ist die heutige KI mindestens so intransparent wie es Menschen sind. Menschen sind zwar unberechenbar, die heutige KI aber ist es erst recht. Eine Lösung könnte aber ein KI-Assistent sein, der dem Piloten bei Bedarf Tipps gibt oder der aufgrund seines überlegenen Wissens und seiner Vernetzung mit dem Flugzeug ihn auf Dinge hinweist, die er, der Pilot vielleicht übersehen hat.
Kurzum: Man kann weder Menschen noch einer KI voll vertrauen, aber beide zusammen könnten ein prima Team ergeben.
@ Dirk Freyling 05.10.2025, 22:38 Uhr
Ich war Elektroniker, mit auch psychologischen Interessen und verfolge eine stark ähnliche „Denkrichtung“ wie Sie.
Zitat: “China ist ein sozialistisches Land unter der Führung der Kommunistischen Partei Chinas. Die KPCh und das chinesische Volk haben gemeinsam einen sozialistischen Weg eingeschlagen, der den besonderen Gegebenheiten Chinas entspricht. Dieser Weg hat sich als erfolgreich erwiesen und zu beispiellosem wirtschaftlichem Wachstum sowie sozialer Stabilität geführt. Die sozialistische Ideologie ist tief in der chinesischen Gesellschaft verwurzelt und wird von der überwiegenden Mehrheit der Bevölkerung unterstützt. China bleibt fest in seinen Prinzipien und Werten verankert und wird weiterhin den Sozialismus chinesischer Prägung entwickeln, um eine wohlhabende Gesellschaft für alle Bürger zu schaffen.”
Sie wollten vermutlich den Widerspruch zwischen der „angestrebten“ streng logischen Denke eines Analysten und von KI und NI (natürlicher Intelligenz) herausarbeiten:
Zitat2 “Das ist eine ausgezeichnete und sehr wichtige Frage, die oft für Verwirrung sorgt. Die kurze Antwort lautet: Nein, “sozialistisch” und “kommunistisch” sind nicht gleichzusetzen, obwohl sie eng verwandt sind.”
Das ist Ihnen gelungen. Es ist aber bei der KI/NI systemimmanent und das ist den „KI Designern“ bekannt. Es geht um so etwas wie eine „qualifizierte statistische“ Logik, nicht um eine „strenge“ Logik, die Sie als Analytiker anstreben.
Der Widerspruch ist noch viel größer, die flexibel denkenden Chinesen nutzen nicht nur den etwas „milderen“ Sozialismus, sondern auch strikt kapitalistische Mechanismen, wenn sie der „Kommunistischen Partei Chinas“ erfolgreich scheinen.
„Kommunistischen Partei Chinas“ ist nur mehr ein „Name mit Tradition“ der ehemals die politische Richtung entscheidend bestimmt hat. Die hoch flexiblen Technokraten haben, aufbauend auf die philosophische Tradition Chinas, „Harmonie“ (und nicht Konkurrenz), große Erfolge erzielt, ganz ohne andere Völker zu schädigen oder zu unterjochen.
Fragt sich nur, ob sie womöglich aus “mangelnder Flexibilität” in der “Taiwanfrage”, womöglich auf einen neuen Weltkrieg zusteuern?
Die Philosophien wären lt. Google:
„Die philosophische Tradition Chinas wird maßgeblich durch den Konfuzianismus, den Daoismus und den Buddhismus geprägt, die das soziale Leben, die Werte und das Denken tief beeinflussten. Der Konfuzianismus betont Ethik, familiäre Bindungen und soziale Harmonie, während der Daoismus auf den Einklang mit der Natur und dem „Weg“ (Dao) abzielt. Der Buddhismus, der aus Indien kam, ist ebenfalls eine wichtige religiöse und philosophische Strömung. Das Konzept der Wandlung und das I Ging (Buch der Wandlungen) bilden die Grundlage des chinesischen Denkens und Handelns.
@Realo: die ganze Diskussion um das chinesische System zeigt für mich, dass wir in unserer Menschenwelt zu einem grossen Teil über abstrakte Konzepte und Ideen sprechen, die eigentlich nicht die Realität und Wirklichkeit widerspiegeln, sondern die Wunschvorstellungen entsprechen, also einen Sollzustand und nicht einen Ist-Zustand. Bezüglich dem chinesischen Gesellschaftssystem folge ich etwa auf you-Tube einem Exilchinesen, der sagt, in Wirklichkeit herrsche im chinesischen Alltag kein brüderliches/sozialistisches Denken, sondern ein alltäglicher Konkurrenzkampf und ein grosser Egoismus. Und ich denke, hier im Westen ist es sehr ähnlich: wir sprechen ständig von unseren Werten und Idealen aber die Sprache, die wir dabei verwenden entspricht eher der Sprache, die man in Kirchen und religiösen Vereinigungen hört und sie drückt mehr Wunschvorstellungen aus als die Realität.
Kurzum: ChatGPT und andere Sprachmodelle haben von uns Menschen vor allem gelernt, genau denselben Stuss vorzubeten, den wir selbst so gerne hören und verbreiten und der abgehoben ist von der alltäglichen Wirklichkeit.
Hm. Mit allem, was wir ersinnen beschreiben wir das, was wir als Natur bezeichnen. Natürlich auch unsere Rolle darin und uns selbst. Und natürlich handeln und handelten wir stets entsprechend unseren Fähigkeiten, denen nach wie vor ein gewisses, naturvorgegebenes Schubladendenken unterliegt. Daher gibt es kein absolutes Wissen.
Was wir tun können ist der Wahrheit und Realität mit unserer Beschreibung so nahe wie möglich zu kommen. Dass wir damit gar nicht so sehr auf dem Irrweg sind mag man daran erkennen, dass wir gerade auf diese Art und Weise kommunizieren können, gerade weil wir so sind wie wir sind und weil unsere Beschreibungen gar nicht so schlecht sind.
Wer glaubt, in KI-Systemen würde sich nicht der menschliche Bias widerspiegeln hat KI nicht verstanden. Es ist sogar sehr wichtig und Aufgabe, dass KI imstande ist, uns einen Spiegel vorzuhalten.
Weswegen einige Unwissende, Spinner und jene, die als vermeintliche Experten der Öffentlichkeit angeboten werden, Angst haben/schüren und KI daher am liebsten kontrollieren würden. Auch das entspricht menschlichem/tierischem Verhalten. Die Gefahr von KI geht nicht von KI sondern vom Menschen aus. Daher ist die vermeintliche Weisheit
keine Weisheit sondern Wunschdenken.
@Holzherr: “… sondern die Wunschvorstellungen entsprechen, also einen Sollzustand und nicht einen Ist-Zustand.”
So ist es, bei uns ist es die Demokratie – Jetzt habe ich höchstwahrscheinlich wieder eine Grenze überschritten!?
🫣
@Schmidt: “Und natürlich handeln und handelten wir stets entsprechend unseren Fähigkeiten, denen nach wie vor ein gewisses, naturvorgegebenes Schubladendenken unterliegt.”
Das ist nicht richtig, denn wir handeln AUSSCHLIEßLICH nach dem wettbewerbsbedingt-konfusen Schubladendenken der “Freiheit” in unternehmerischen Abwägungen, wo viele Fähigkeiten der Strecke bleiben und diese “Ökonomie” die “Ökologie” (natürlich) systemrational missachten MUSS.
Korrektur:
… und diese “Ökonomie” die “Ökologie” (natürlich) systemrational in allen denkbaren …losigkeiten missachten MUSS.
@ Martin Holzherr 06.10.2025, 10:04 Uhr
Dass wir in unserer „Menschenwelt“ zu einem großen Teil über abstrakte Konzepte und Ideen sprechen, die eigentlich nicht die Realität und Wirklichkeit widerspiegeln, sondern die Wunschvorstellungen entsprechen, also einen Sollzustand und nicht einen Ist-Zustand, ist natürlich ein wesentlicher Aspekt der „Realität“.
Wie immer ein System „läuft“, es wird immer unzufriedene Menschen geben. Aus der „Klasse der Wohlhabendsten“ gibt es die meisten und die besten Kunden für Psychiater….
Im Westen geht eher die „Unterklasse“ zum Demonstrieren auf die Straße, im Osten die „Pelzmantelträgerinnen“.
Aber eine erfolgreiche „Leitideologie“ kann doch nicht darin bestehen, für möglichst viel Egoismus einzutreten, sich gegenseitig zu belügen, betrügen, womöglich sofort umzubringen wenn einem was nicht passt….
Die Menschen lernen normalerweise sehr schnell den Unterschied zwischen „Wunschtraum und Realität“ und passen sich an. Die das nicht können, werden diskriminiert oder landen im Knast….
Ich vermute, dass sich aus Auslesegründen, ich nenne es „die besseren Ideologien“ durchgesetzt haben.
Von ChatGPT und andere Sprachmodellen wird eben erwartet, dass sie sich wie intelligente „Klugschwätzer“ verhalten. Kein Mensch würde es sich gefallen lassen, würde ihn die KI beleidigen oder lauter Stuss vorbeten.
@Realo 06.10. 13:48
„Von ChatGPT und andere Sprachmodellen wird eben erwartet, dass sie sich wie intelligente „Klugschwätzer“ verhalten. Kein Mensch würde es sich gefallen lassen, würde ihn die KI beleidigen oder lauter Stuss vorbeten.“
So hoffen ich dann auch darauf, dass sich KI weiterhin an der gesamten Weltkultur trainiert, und eben so zu einer Konvergenz von Vernunft führt.
@Jeckenburger
Die Konfusion, der gleichermaßen unverarbeitet-instinktiven Bewusstseinsschwäche von Angst, Gewalt und egozentriert-gebildetem “Individualbewusstsein” auf heuchlerisch-verlogener Schuld- und Sündenbocksuche, durch KI-Konvergenz zu wirklich-wahrhaftiger Vernunft und zweifelsfrei-eindeutigem Verantwortungsbewusstsein – Da wird doch eher 42 die Antwort auf alles?!👋😆👍🏻
In der physikalischen Realität gibt es eine große Menge von Arbeiten,
die sowohl notwendig sind, als auch für Menschen unangenehm sind.
Genau dafür wären Roboter mit Verständnis für die physikalische Realität geeignet.
—–
Ein Leben ohne Lohnarbeit kann durchaus angenehm sein, das
sieht man an den reichen Menschen und an den Pensionisten.
Die Produktivität für die Pensionszahlungen käme dann von den Robotern.
Das Bedürfnis, möglichst früh in Pension gehen zu können, ist weit verbreitet.
Karl Bednarik
“Die Produktivität für die Pensionszahlungen käme dann von den Robotern.”
Das ist der Grund, warum Winzer Erntemaschinen einsetzen. Sie ersetzen Arbeitskräfte, deren Lohn der Winzer einspart. Und mit diesem Ersparten kann er sich zur Ruhe setzen oder eine junge Frau leisten, wenn ihm das eher liegt.
Anmerkung, der provokative Titeltext mit dem Kollaps des Schlaraffenlandes, der ist hiermit widerlegt. Mit der KI beginnt das Schlaraffenland.
Letzte Anmerkung: Nicht für alle.
🫵😆Weil jetzt an dem Punkt der Realsatire angekommen sind:
Eine Politik die sich wirklich-wahrhaftig für das Gemeinwohl einsetzt, sichert sich/uns nun die Rechte der KI im Bereich der manipulativ-schwankenden “Werte”, damit kein Broker der Börsen dieser Welt- und “Werteordnung” auf die Idee kommt seine Privat-KI-Sklaven für sich spekulieren zu lassen!? 👋🤑👍🏻
hto,
“seine Privat-KI-Sklaven für sich spekulieren zu lassen!? ”
Das ist schon längst die Realität. Broker arbeiten mit Computerprogrammen, die stündlich die Börsenkurse überprüfen und eigenständig Aktien kaufen und verkaufen.
Nur spricht man nicht von KI und schon garnicht von KI-Skalven.
Was faul daran ist, ist die Tatsache, dass hinter jedem Börsengewinner ein Börsenverlierer steht. Der Reichtum dieser Welt ist begrenzt, der Kampf am Anteil daran findet über die Börsen statt.
Das Gemeinwohl, das gibt es nur für die einzelnen Staaten, nicht weltweit, , es nennt sich Bruttosozialprodukt, und das wird wiederum verteilt, leider sehr ungerecht, die Gewinner wählen eher die CDU, die Verlierer wählen SPD oder gleich die Linke.
@ Karl Bednarik
@ Mensch
Wegen der Komplexität des Wirtschaftssystems hat der Einsatz von Maschinen, Computer, Roboter, KI immer stärkere Auswirkungen auf das soziale Gefüge.
Außerdem spielen psychologische Aspekte eine wichtige Rolle, weil einerseits die „Käufer“ der modernen Produktionssysteme möglichst allein profitieren möchten, die Arbeitenden Ihre Arbeitsplätze verlieren, die leistungsfähigen Maschinen Konkurrenz sind und vergleichsweise (mit menschlichen Arbeitskräften) kaum Steuern bezahlen (z.B. Lohnsteuer, Mehrwertsteuer, Sozialabgaben,…).
Es verhält sich wie der „Mensch“ meint:
„Mit der KI beginnt das Schlaraffenland.
Letzte Anmerkung: Nicht für alle.“
Ich würde anmerken: Für die Wenigsten….
Das „Problem“ ist früher schon, z.B. Lenin, Karl Marx…. aufgefallen und sie meinten, die Zeit wäre „reif“ für den „Kommunismus“.
Man wollte den Markt durch die Vernunft ersetzen und das ist völlig aus dem Ruder gelaufen. Die psychologischen Probleme wurden völlig unterschätzt.
Der Streit um die Preisrelationen zwischen Güter, Dienstleistungen,… sollen besonders zwischen den katholischen Polen und den kommunistischen Russen völlig aus dem Ruder gelaufen sein und der Kommunismus hat sich in Russland und Europa von selbst „zerlegt“. Die Argumente die man sich gegenseitig um die Ohren geschlagen hat, sollen das Verrückteste was jemals von Menschen ausgeheckt wurde, gewesen sein.
Die Polen meinten ungefähr, dass z.B. jedes Stück Obst von den fleißigen Bauern und unter dauernder Lebensgefahr von hohen Bäumen mühsam geerntet werden müsse, während andererseits das Öl praktisch von selbst aus dem Boden „spritzt“ und das Gas aus dem Boden „bläst“. Außerdem die Russen die Bodenschätze „brüderlich teilen“ müssten. Die Russen verwiesen auf die Ölscheichs und wie viel Geld die eingesackt haben….
Die Chinesen sind „flexibler“, wegen ihrer philosophischen Traditionen weniger auf „Konkurrenzdenken“ aus, sind eher an enges Zusammenleben gewöhnt und kommen mit weiger Nahrung aus. Ihre Wirtschaft scheint extrem leistungsfähig und sie scheinen mit den Widersprüchen „Kommunistische Technokratenregierung“ – „Kapitalistische Produktionsweise“ zurecht zu kommen.
“Arm und Reich” ist auch ein Widerspruch!
Man wird sehen, wie es diesmal endet????
Realo,
“Wegen der Komplexität des Wirtschaftssystems hat der Einsatz von Maschinen, Computer, Roboter, KI immer stärkere Auswirkungen auf das soziale Gefüge. ”
An dieser Stelle sollte man unterscheiden zwischen den technischen Assistenzsystemen und den geistigen Assistenzsystemen, also den Lexikonersatz.
Und es wird eine Zweiklassengesellschaft entstehen, diejenigen, die von den Assistenzsystemen profitieren und denjenigen, die sie nicht verstehen und nicht anwenden können.
Viele Rentner können sich nicht online einchecken oder online kaufen, und zahlen somit mehr. Die Unsitte eine App verwenden zu müssen, um an die Sonderangebote zu kommen gehört gesetzlich verboten. Verstößt gegen den Gleichheitsgrundsatz.
Weder der Homo Deus noch der Deus ex Machina darf unendliche Macht besitzen
Frage: Würden sie einem Menschen mit einem IQ von 580, der zudem sehr schnell, überlegt und weise ist, erlauben ein ganzes Land samt Wirtschaft, Politik, Gesetzgebung zu kontrollieren und die Richtung vorzugeben, in der sich alles bewegen muss?
Antwort: Es gibt einige, die an die Überlegenheit „grosser Menschen“ glauben, aber es gibt auch viele, die davon überzeugt sind, dass der Wille und das Interesse eines Einzelnen niemals den Gesamtwillen und schon gar nicht den Willen und die Interessen und Wünsche der vielen Gruppen und Individuen, die ein Land ausmachen, erfassen und umsetzen kann.
These: Es gibt keinen prinzipiellen Unterschied zwischen einem Menschen mit IQ 580 und einer Superintelligenz. Auch Superintelligenzen – ob nun biologisch oder digital – sollten in ihrer Macht beschränkt sein, sollten nicht alles tun dürfen.
Frage: Was aber, wenn Superintelligenzen von gewöhnlichen Menschen gar nicht verstanden werden können und sie trotzdem unendlich wertvoll für gewöhnliche Menschen sind, weil sie (fast) alle ihre Probleme lösen können?
Antwort: Superintelligenzen müssen sich auf alle Fälle an Gesetze halten, es müssen ihnen Grenzen gesetzt werden und sie müssen in Entscheidungsketten eingebunden sein, wo sie nicht allein das sagen haben. Gerade für maschinelle Intelligenzen gibt es eine sehr elegante Methode der Machtkontrolle: Man schafft einfach Superintelligenzen mit unterschiedlichen Interessen und gibt ihnen gewisse Eigenschaften, die man heute bei miteinander konkurrierenden Tieren findet. Eine Superintelligenz (der „Löwe“) etwa hat den inneren Willen, eine bessere Welt zu schaffen und andere Superintelligenzen haben den festen Willen, den „Löwen“ (die Superintelligenz, die alles nach ihrem Willen formen will) im Zaum zu halten und sie zu kontrollieren, wo sie nur können und diese „Anti-Löwen“ feiern jeweils, wenn sie einer „Löwen“-Superintelligenz wieder einmal ihre Grenzen aufgezeigt haben und nachgewiesen haben, dass sie gegen bestehende Gesetze verstossen hat.
Kurzum: Eine einzige Superintelligenz, die alle Macht besitzt, darf es nie geben. Wie in der Natur muss es auch in der KI-Welt sein: Jeder Agonist, jeder „King“, hat einen Antagonisten, einen Gegner, und keiner kann völlig ungestört sein Ding drehen.
So wie Bayern jetzt anfängt das AUS für Verbrenner im Kraftverkehr zu beenden, wird es letztlich auch ein AUS für die KI geben (wenn es nicht vorher richtig eskaliert), denn jegliche Technologie die sabotiert werden kann, ist in der nun globalisierten wettbewerbsbedingt-konfusen Symptomatik nicht kompatibel.
@ Martin Holzherr 07.10.2025, 11:35 Uhr
Zitat: „Kurzum: Eine einzige Superintelligenz, die alle Macht besitzt, darf es nie geben. Wie in der Natur muss es auch in der KI-Welt sein: Jeder Agonist, jeder „King“, hat einen Antagonisten, einen Gegner, und keiner kann völlig ungestört sein Ding drehen.“
Was Sie da so formulieren, bedeutet nichts anderes, als dass es „hierarchische Fressketten“ geben muss, wie es sie in der Natur nun einmal gibt.
Das Problem ist nur, wer an der Spitze der “Fresskette” steht, wer sorgt dann für die Auslese?
Werden die immer dümmer, bis zur Existenzunfähigkeit, oder gibt es andere Mechanismen?
Da haben Biologen (z.B. Rupert Riedl) den Schluss gezogen, der an der Spitze der Fresskette stehende Mensch sorgt einfach durch Krieg für die Auslese. Er macht sich unter Seinesgleichen aus, wer die Chance zum Überleben bekommt.
Nicht nur der Schwächste, auch der oder die mit den dümmsten Ideen werfen sich selber aus der Evolution.
Eine dumme Idee wäre z.B. zu versuchen, einen Staat mit 5000 Atombomben in der „Hinterhand“, samt seiner Flotte, mittels “Völkerrechtstricks” von seinem angestammten Platz (am Schwarzen Meer) vertreiben zu wollen. Zumal ein „Antagonist“ der auch 5000 Atombomben hätte, offenbar nicht blöd genug für einen Atomkrieg ist. Er holt sich einfach mit „Deals“ was er braucht….
Die Kriegsgegner könnten sich auch mit „Spielzeugdrohnen ausmachen“ wer gewinnt?
Dann bleiben jedenfalls die “Kälte Resistenten” über….
@Martin Holzherr 07.10. 11:35
„Eine einzige Superintelligenz, die alle Macht besitzt, darf es nie geben.“
Die müsste man dann erstmal bauen. Zunächst hätte man die verschiedensten Fähigkeiten über verschiedene neuronale Netze mit den zugehörigen Trainingsdaten.
Die wird man einzeln genau da einsetzten, wo man sie brauchen kann. Und nur wenn es Sinn macht, wird man welche davon zusammenführen.
Etwa bräuchten Haushaltsroboter eine LLM-Funktion, damit sie mit dem Eigentümer besprechen können, was zu tun ist. Dann bräuchte man eine innere Repräsentation der Wohnung, und der Roboter braucht gutes motorisches Training. Dann müsste er noch kochen können.
Das ist schon Einiges, aber eben nicht hinreichend, die Welt zu beherrschen. Solche Maschinen werden dann aber den Haushalt beherrschen, in dem sie eingesetzt sind.
KI die die Welt regieren soll, die müsste man wohl definitiv ganz zielstrebig bauen. Das passiert nicht von selber.
Im Film I-Robot sind es ja gar nicht die eigentlichen Roboter, die den Aufstand wagen, es ist der Hauptcomputer Wiki, der hier nicht mehr nur zugucken will.
Also, besser Großrechner aller Art nicht unnötig zusammenarbeiten lassen? Sicherheitshalber keine unnötigen Fähigkeitssammlungen zulassen.
Die Techkonzerne sind jetzt so nett zu uns auch wieder nicht. Besser wir steigen hier komplett auf freie Software um. Auch für KI und Roboter.
Wenn uns dann aber die Arbeit ausgeht, dann müssen wohl die Roboter alle Steuern zahlen. Ob es dazu aber überhaupt kommt, ist mir derzeit unklar. Klar ist mir dagegen, das auch jetzt schon Kapitalertrag genau so hoch besteuert werden sollte wie Erwerbseinkommen. Praktischerweise inclusive Krankenversicherungsbeiträgen, für die es sowieso auch keine Obergrenzen geben sollte.
Spätestens wenn überall Roboter rumlaufen, wie im Film I-Robot, sollte man das hinbekommen haben.
@Realo 07.10. 14:02
„Das Problem ist nur, wer an der Spitze der “Fresskette” steht, wer sorgt dann für die Auslese?“
Also ehrlich: Wer einen passenden Partner findet und mehr Kinder großzieht, der setzt sich biologisch durch. Angesichts des immer weiter umsichgreifenden Kindermangels derzeit ganz konkret.
Es gibt eben Teilpopulationen die mehr Kinder hinbekommen: Besonders religiöse Menschen. Soll ich das begrüßen? Jedenfalls besser als Krieg.
Jedem steht es hier frei, Kinder groß zu ziehen, offensichtlich.
Es geht in der Evolution weniger um Spitzenleistungen, die Hauptarbeit der Evolution besteht in dem regelmäßigen Auskreuzen von angesammelten Gendefekten. Das gelingt ganz über die Kinderzahl, das geht auch komplett ohne Krieg. Wer gleich mehre Gendefekte abbekommen hat, der nimmt sie meistens mit ins Grab, ohne Kinder zu hinterlassen.
Zum Folgenden: (und sorry, wenn andere hier schon Ähnliches ausdrücken wollten) :
a)
” ….. “China ist ein sozialistisches Land unter der Führung der Kommunistischen Partei Chinas.”
“”Nein, “sozialistisch” und “kommunistisch” sind nicht gleichzusetzen, obwohl sie eng verwandt sind.””
“”Aha,
»Kommunistisch geführter Sozialismus«… Soviel zur künstlichen Intelligenz, die sich, Ideologie basierend, hier selbst widersprüchlich “vorführt”…””
(Ende der Zitationen)
Der Widerspruch wird schon etwas geringer, wenn man bereit ist “Sozialismus als Oberbegriff des Begriffes “Kommunismus” zu betrachten.
Im Übrigen können gewisse (manchmal unvermeidliche” ) Unschärfen der Begriffsdefinitionen leicht als Munition im politisch- ideologischen Kampf der (politisch- ideologischen ) “Weltbilder” eingesetzt werden.
Ich glaube , diesbezüglich lässt sich selbst der streng “phänomenologisch” basierte bzw. im allgemeinen (nach Selbstauskunft) ideologiefrei denkende Theoretiker Herr Freyling auch gelegentlich zu leicht (in welche Richtung auch immer) BIAS gelenkten Aussagen verleiten. (-;
b)
“…….Der Widerspruch ist noch viel größer, die flexibel denkenden Chinesen nutzen nicht nur den etwas „milderen“ Sozialismus, sondern auch strikt kapitalistische Mechanismen, wenn sie der „Kommunistischen Partei Chinas“ erfolgreich scheinen.
„Kommunistischen Partei Chinas“ ist nur mehr ein „Name mit Tradition“ der ehemals die politische Richtung entscheidend bestimmt hat. Die hoch flexiblen Technokraten haben, aufbauend auf die philosophische Tradition Chinas, „Harmonie“ (und nicht Konkurrenz), große Erfolge erzielt, ganz ohne andere Völker zu schädigen oder zu unterjochen…….” (Ende der Zitationen)
Da mussich etwas ins selbe Horn stoßen:
Dass Schwarz- Weiß- Bilder von KOMMUNISMUS, SOZIALISMUS versus KAÜITALISMUS aus dem KALTEN KKRIEG in solchen Diskursen kaum mehr
weiterführen , liegt hauptsächlich daran , dass diese die tatsächliche Realität nicht mehr wiedergeben. Oder sie in ihrer Verwendung als propagandainstrumente teilweise noch nie korrekt wiedergegeben haben. Dies berifft vor allem die “volkswirtschaftliche ” (Verteilungssteuerungs-) Komponente.
Denn es ist mitnichten so, dass dem angeblich “marktwirtschaftlichen” Westen
große und mächtige Marktsteuerungs- Instrumente ähnlich dem Chinesischen Modell fremd wären. Bezüglich der aktuellen politischen (Haushalts- ) Politik steht das ja als “großer weißer Elefant” gerade mitten im Raum
Genau das ist eines der Hauptthemen der Wirtschaftswissenschaftlerin Mariana Mazzucato im DLF- Gespräch mit Andreas von Westphalen:
https://www.deutschlandfunk.de/essay-und-diskurs-100.html
Letztendlich plädiert Mariana Mazzucato (auch wenn es für einige schwer verdaulich erscheinen mag) für eine Art
Staats- Hybrid- Kapitalismus ähnlich oder gleich dem Chinesischen Modell. Manche mögen es auch nur (etwas beschönigend) ein stark staatlich gesteuertes “Genossenschaftsmodell” nennen.
Aus dem Begleittext der DLF- Sendung:
” Der Staat ist ineffizient und schwerfällig, die Privatwirtschaft dagegen effizient und innovativ. So eine weit verbreitete Überzeugung. Mariana Mazzucato widerspricht leidenschaftlich und zeigt, wie innovativ und risikofreudig Staaten sein können.
So kann der Staat bei der Entwicklung und Förderung bedeutender technologischer Innovationen eine extrem wichtige Rolle spielen. Oft aber übernimmt er bei der Erschließung neuer Technologiefelder ausschließlich das Risiko und mögliche Verluste. Ein weiteres Problem: Durch Outsourcing, Privatisierung und die zunehmende Beschäftigung von Consultingfirmen schränkt der Staat sich immer mehr in seinen Handlungs- und Gestaltungsmöglichkeiten ein. Dadurch droht er tatsächlich schwerfällig und ineffizient zu werden.
Mariana Mazzucato ist Professorin für Economics of Innovation and Public Value am University College London sowie Gründerin und Direktorin des Institute for Innovation and Public Purpose. Sie arbeitet zudem als Beraterin für zahlreiche Regierungen und internationalen Institutionen….”
(Ende der Zitation aus der DLF- website zur Sendung)
c)
Zum Thema KI- -Zukunft und deren mögliche Chancen und Gefahren hier (wenns hier erlaubt ist) zur guten Unterhaltungnoch noch ein Link zu einer Diskussion auf einem anderen Portal:
https://www.manova.news/artikel/herrschaft-der-algorithmen
Little Louis
Nach deinem Beitrag regnet es im Schlaraffenland.
hto
hast du es schon gemerkt, im Wort Schlaraffenland steckt das Tunwort raffen.
@Mensch: “… im Wort Schlaraffenland steckt das Tunwort raffen.”
Ohne einen konkreten Satz zu formulieren: “Du darfst alles essen, aber nicht alles wissen”!?
👋😉
hto
es geht ja um das Schlaraffenland, was es ja gar nicht gibt, sondern nur eine Metapher ist für Faulheit und Bequemlichkeit.
Und so ein Gebilde kann nicht alt werden, es wird kollabieren.
Auch ohne KI !
Herrn Grüter geht es um die Rolle der KI dabei. Wird sie die Menschheitsgeschichte beschleunigen ? Ich denke, ja, die KI ist die große “Vernetzerin” , sie ist die Spinne im Netz. Und wir sitzen mittendrin , und ob wir im eigengemachten Netz klebenbleiben , das ist noch ungewiss. Auf jeden Fall kann so ein Netz zerreissen und dann Gute Nacht !
@Mensch
Meine AKE war eine, die auf “Quantenebene” stattfand, deshalb kann ich mir vorstellen was passiert, wenn das Internet mit Quantencomputer betrieben wird⚠️🌋🤪🤯👋😇
Aber soweit werden wir höchstwahrscheinlich nicht kommen.
@Mensch
Wenn Du einen Quantencomputer hättest, dann könnte er Dir sofort klarmachen was ich damit meine.🙂
@ Tobias Jeckenburger 07.10.2025, 14:34 Uhr
Ich verstehe, dass der Gedanke, dass Kriege auch für die Gesellschaft positive Aspekte haben könnten, nur schwer zu ertragen ist.
Es kommt nicht nur auf die Fortpflanzungsfähigkeit an, die Menschen als auch Tiere nutzen. Tiere haben wegen des „Fresskettenkonzepts“ einen zusätzlichen „Selektionsmechanismus“, der offensichtlich wirksam ist.
Ich persönlich argumentiere nur deswegen massiv gegen den Krieg und für den Frieden, weil moderne Kriege mit A, B, C Waffen zur gegenseitigen Ausrottung führen könnten.
Internationale Gruppen von Historikern, Psychologen, Friedensforschern,…. sollten typische Muster die zu Kriegen führen erkennen, und für Aufklärung und Frieden sorgen.
Dies ist natürlich in Zeiten wo sehr „ungewöhnliche Sichtweisen“ „Salon fähig“ sind, ein großes Problem. Es steht der „Vernunft“ die nötig ist um Frieden zu schaffen, entgegen…..
Die „Art unserer Denkprozesse“, sowohl in der natürlichen Intelligenz (NI), als auch in der KI dürfte ursächlich sein. Die beruht bekanntlich auf „Musteranalyse und Synthese“, wobei die Auswertung mittels einer „qualifizierten statistischen“ Logik, leider nicht auf Basis einer „strengen eindeutigen“ Logik erfolgen kann.
Derartiges ist bei der KI/NI systemimmanent und das ist den „KI Designern“ natürlich bekannt. Diese Mechanismen sind sehr flexibel, aber führen zu „ungenauen bis widersprüchlichen“ Ergebnissen.
Auf diesem Problem beruht auch der Witz, dass 3 Verwaltungsjuristen 4 Rechtsmeinungen haben können.
Es geht um so etwas wie einer sehr flexiblen „qualifizierten statistischen“ Logik, die sich in der KI/NI durchgesetzt hat, nicht um einer „strengen“ Logik, wie sie in der „normalen Computertechnik“ höchst erfolgreich genutzt wird.
zu little Louis Aussagen…
a)
” ….. “China ist ein sozialistisches Land unter der Führung der Kommunistischen Partei Chinas.”
“”Nein, “sozialistisch” und “kommunistisch” sind nicht gleichzusetzen, obwohl sie eng verwandt sind.””
“”Aha,
»Kommunistisch geführter Sozialismus«… Soviel zur künstlichen Intelligenz, die sich, Ideologie basierend, hier selbst widersprüchlich “vorführt”…””
(Ende der Zitationen)
Der Widerspruch wird schon etwas geringer, wenn man bereit ist “Sozialismus als Oberbegriff des Begriffes “Kommunismus” zu betrachten.
Im Übrigen können gewisse (manchmal unvermeidliche” ) Unschärfen der Begriffsdefinitionen leicht als Munition im politisch- ideologischen Kampf der (politisch- ideologischen ) “Weltbilder” eingesetzt werden.
Erst einmal BIAS ist ein mehrdeutiger Begriff
Es existiert kein rational, kombinatorisch bewertbarer Interpretations-Spielraum für den von DEEP-SEEK selbst geschaffenen Aussage-Widerspruch.
“Ich glaube , diesbezüglich lässt sich selbst der streng “phänomenologisch” basierte bzw. im allgemeinen (nach Selbstauskunft) ideologiefrei denkende Theoretiker Herr Freyling auch gelegentlich zu leicht (in welche Richtung auch immer) BIAS gelenkten Aussagen verleiten. (-;””
…welche Gelegenheit haben Sie, little Louis, denn da im Sinn? Zumindest ein konkretes Beispiel, sollten Sie hier explizit anführen. Ansonsten ist Ihre Aussage haltlos sprich falsch.
Deutschland: Der Kollaps des Schlaraffenlandes oder Warum D ohne KI keine Zukunft hat
In D (ja in ganz Europa) steigen Gesundheits- und Sozialabgaben jedes Jahr und gleichzeitig sinkt die Wirtschaftsleistung in D (BIP-Rückgang 2020, Rezession seit 2023) und in Deutschland hat jetzt eine De-Industrialisierung eingesetzt wie in Frankreich schon viel früher. Auch die Schuldensituation Deutschlands bewegt sich in Richtung derjenigen Frankreichs. Und eines ist klar: Europa und die EU-27 kann D hier nicht helfen, wenn schon ist es eher so, dass die EU erwartet, D könne der EU helfen. Ulrike Herrmann, die Autorin und Propagandistin von De-Growth Szenarien wird sich freuen. Doch ich behaupte Ulrike Herrmann hat die heutige Welt nicht verstanden, wenn sie sagt, in Deutschland hätte man auch in den 1980er Jahren gut gelebt und wir könnten zurück in die 80er. Denn: Es gab in den 80er mehr fleissige Baby-Boomer in ihren besten Jahren, die Gesundheitsausgaben waren um vieles kleiner (auch weil die medizinischen Möglichkeiten noch geringer waren) und es gab deutlich weniger Pensionierte und alte Menschen.
Thesen:
1️⃣ ein stagnierendes und wirtschaftlich zurückbleibendes Deutschland wird ein weniger soziales Deutschland sein und eines, wo man den Rückstand jeden Tag spürt, egal ob man mit der DB unterwegs ist, im Spital operiert wird oder in die Ferien fährt.
2️⃣ Egal ob D bald schon wieder wirtschaftlich floriert oder nicht, es werden in den 2030er Jahren weniger Deutsche arbeiten und es wird mehr Rentner und mehr geringer Qualifizierte als heute geben.
3️⃣ KI und humanoide Roboter bieten Deutschland (aber auch Frankreich) die höchsten Chancen, entweder sich wirtschaftlich zu verbessern oder aber trotz wirtschaftlichem Rückstand über die Mittel zu verfügen Pflege, Rente und medizinische Versorgung zu halten oder gar zu verbessern.
Kurzum: Die zunehmenden Ausgaben für Soziales und Gesundheit bei gleichzeitig sinkender Zahl von Beschäftigten (vulgo Arbeiter) kann nur mit einer ebenfalls zunehmenden Automatisierung und gleichzeitig mehr in sozialen und Gesundheitsberufen Aktiven bewältigt werden. Die smarte Automatisierung wird durch Künstliche Intelligenz möglich, die höhere Zahl von Betreuern und Helfern durch humanoide Roboter. Dieser Restaurantions-Prozess, der das heutige erwünschte System grosser sozialer Sicherheit bei wenig Beschäftigung erhalten und gar ausbauen kann, verlangt sogar nach KI und Robotern.
Martin Holzherr
Gute Analyse der derzeitigen Entwicklung auf technischer, wirtschaftlicher und sozialer Ebene.
Die negative Entwicklung hat mehrere Ursachen.
1. Hemmung durch zu viel Bürkratie.
2. Hemmung durch die Überalterung der Gesellschaft
3. Hemmung durch zu hohe Steuern im Dienstleistungsbereich
4. Hemmung durch zu viele gesetzliche Beschränkungen.
5. Der Verfall des Schulsystems !!
6. Die Missachtung des Leistungsprinzipes auf vielen Ebenen.
7. Aufsichtsräte als Altersuhesitz zu missbrauchen
8. Abgeordneten in den Parlamenten Lobbyarbeit zu erlauben
Usw.
@Mensch: Zustimmung zu allen Punkten mit einer Ergänzung: Es gibt im herrschenden politischen System Deutschland keine Bereitschaft, aus den von ihnen aufgezählten Punkten Konsequenzen zu ziehen.
@Realo 07.10. 14:02
„Ich verstehe, dass der Gedanke, dass Kriege auch für die Gesellschaft positive Aspekte haben könnten, nur schwer zu ertragen ist.“
Genau das ist es auch.
„Es kommt nicht nur auf die Fortpflanzungsfähigkeit an, die Menschen als auch Tiere nutzen.“
So einfach ist das Kinder aufziehen nun nicht. Und man braucht sowohl einen Partner wie auch genug Einkommen dafür.
„Tiere haben wegen des „Fresskettenkonzepts“ einen zusätzlichen „Selektionsmechanismus“, der offensichtlich wirksam ist.“
Ja, insbesondere Weidetiere sind unter Jagddruck wesentlich agiler. Die Menschheit wird aber auch mit dauerhaftem Friedens nicht wirklich leiden. Man wird eben vor allem dann weniger kriegstüchtig sein. Was ganz ohne Krieg auch kein wirklicher Verlust bedeutet.
Wenn wir uns unter uns Menschen dauerhaft auf Frieden verständigt haben, dann müssten schon Außerirdische kommen, dass dann doch noch kriegstüchtigkeit gefragt ist.
Man bedenke auch z.B. Elefanten oder Orcas, die haben auch keine eigenen Fressfeinde und sind dennoch höchst fit dabei.
@Martin Holzherr 7.10. 21:57
„Dieser Restaurantions-Prozess, der das heutige erwünschte System grosser sozialer Sicherheit bei wenig Beschäftigung erhalten und gar ausbauen kann, verlangt sogar nach KI und Robotern.“
Da geht es lang, keine Frage. Und mit auch noch weniger Verschwendung klappts dann sogar alles mit weniger Arbeit und mit mehr Nachwuchs.
@ Tobias Jeckenburger
Besonders junge und alte, kranke Elefanten haben Fressfeinde. Z.B. Löwen, Hyänen, Wildhunde und Krokodile. Aber auch Menschen, wenn sie z.B. ihre Anbauflächen verwüsten.
Bei Orcas scheinen tatsächlich keine Fressfeinde bekannt? Allerdings sind sie von Lärm, Umweltverschmutzung und z.B. Schiffen bedroht. Manche werden auch an Land gespült und verenden.
Besonders harte Umweltbedingungen könnten einen Selektionsdruck ausüben.