Ist KI-Sicherheit der Streitpunkt, der zur Ablösung der OpenAI-Führungsriege um Sam Altman führte?

Paukenschlag mit Schockwellen

Der plötzliche Abgang Sam Altmans hat die Aufmerksamkeit auf grundlegende Meinungsunterschiede unter den Entwicklern neuer KI-Systeme gelenkt. Der gut vernetzte Leiter des KI-Unternehmens aus San Francisco, der Technologie und Zukunftsvisionen von OpenAI auf vielen Konferenzen und auch schon gegenüber dem US-Kongress erläuterte, war am Freitag plötzlich und unerwartet entlassen worden. OpenAI-president Greg Brockman folgte ihm kurz darauf.

Ilya Sutskever, renommierter KI-Forscher und ebenso wie Altman einer der 11 Co-Gründer von OpenAI, zeigte sich vermehrt beunruhigt über das potenzielle Gefahrenpotenzial der OpenAI-Technologie. Er war – so wird es über Tweets einiger Insider kolportiert – der Ansicht, dass Altman die damit verbundenen Risiken nicht mehr ausreichend ernst nahm, und startete eine erfolgreiche Palast-Revolution.

Die Befürchtung, dass KI-Forscher etwas Gefährliches erschaffen könnten, war stets ein wesentlicher Bestandteil der Unternehmenskultur von OpenAI. Die Gründer waren der selbstbewussten Überzeugung, dass gerade sie, weil sie sich als KI-Forscher und Technologievorreiter dieser hohen Risiken bewusst sind, die Richtigen seien, um KI-Systeme entwickeln.

Rückkehr nicht ausgeschlossen

Der Rauswurf verursachte nun Schockwellen bei den Mitarbeitern von OpenAI und in der gesamten Technologiebranche, einschließlich Microsoft, das 13 Milliarden Dollar in das Unternehmen investiert hatte und sich nun Sorgen um diese Investition macht. Doch bereits am Folgetag kam es zu einer überraschenden Wendung: Altman sei laut The Verge in Gesprächen mit dem Vorstand von OpenAI über eine Rückkehr. War der Rauswurf nur eine demonstrative Eskalation, die nun Grundlage für Verhandlungen zur Unternehmenspolitik möglichen machen sollte? Wirtschaftskommentatoren reiben sich verwundert die Augen. Es dürfte kein anderes Technologie-Unternehmen in dieser Größenordnung geben, das sich solche Kapriolen leistet und Kunden wie auch Investoren vor den Kopf stößt. 

Ungewöhnliche Strukturen: non-profit oder capped profit?

Die aktuellen Vorgänge machen deutlich, wie ungewöhnlich die Unternehmensstruktur von OpenAI ist. Die Story wird in Kurzfassung meist so erzählt: OpenAI wurde 2015 als gemeinnützige Organisation gegründet und sollte KI zum Wohle der Menschheit entwickeln. Als man erkannte, dass die benötigten Mittel in Milliardenhöhe ohne Hilfe finanzstarker Investoren nicht einzusammeln waren, schuf man 2019 eine Tochtergesellschaft mit begrenztem Gewinn (“capped-profit subsidiary”) – ein kreativer Kompromiss, bei dem die Renditen der Investoren auf einen bestimmten Betrag über ihre Erstinvestition begrenzt sind. Werden höhere Renditen erzielt, fließen die erwirtschafteten Mittel in die gemeinnützigen Aktivitäten.

Das Unternehmen behielt daher das Primärziel der Gemeinnützigkeit bei und ermächtigte den 6-köpfigen Vorstand die Aktivitäten auch die der gewinnbeschränkten Tochtergesellschaft zu kontrollieren, einschließlich der Entlassung und Bestellung der Führungsebene. Dabei ist der Vorstand, dem auch Altman, Brockman und Sutskever angehören, allein dem Ziel verpflichtet, eine “sichere A.G.I.” (Künstliche Allgemeine Intelligenz), die im weitesten Sinne vorteilhaft ist, entwickeln zu helfen (“safe A.G.I. that is broadly beneficial.”). Der Vorstand ist daher den Investoren gegenüber nicht verantwortlich.

Altman besitzt selbst keine Anteile an OpenAI. Haupt-Investor Microsoft wurde von der Entscheidung ebenso überrascht wie Altman und die Belegschaft. Es genügen vier Vorstände (darunter Sutskever), die sich einig werden, die Leitungsebene auszutauschen – und genau das war am Freitag mit der Überstimmung von Altmann und Brockman, der dann freiwillig ausgeschieden ist, geschehen.

Super-Alignment

Interne Spannungen bei OpenAI fokussieren sich auf das Alignment-Problem. Als er das Gefahren-Potenzial von GPT-4 erkannte, initiierte Sutskever die Gründung eines neuen “Super Alignment”-Teams innerhalb des Unternehmens, das Möglichkeiten erforschen sollte, um sicherzustellen, dass zukünftige Versionen der Technologie keinen Schaden anrichten können.

Das AI-Alignment-Problem bezieht sich allgemein auf die Herausforderung, künstliche Intelligenz so zu entwickeln und zu implementieren, dass sie menschliche Werte versteht und respektiert. Hauptziel ist es, sicherzustellen, dass KI-Systeme im Einklang mit moralischen und ethischen Vorstellungen handeln und keine unbeabsichtigten oder schädlichen Handlungen ausführen. Diese bisher ungelöste Aufgabe ist äußerst komplex, da es bisher unmöglich erscheint, menschliche Ethik und Werte in Algorithmen zu kodieren und KI-Verhalten vorherzusehen. Das “Super Alignment”-Team soll hierbei eine Gesamthoheit wahrnehmen und Einfluss auf die Entwicklungsentscheidungen nehmen, möglicherweise auch Business-getriebene Entscheidungen ausbremsen, bis Fortschritte beim Alignment erzielt werden.

KI-Maschinenaufstand in der Vorstellung einer KI (CC0)

Altman war diesen Bedenken gegenüber aufgeschlossen, was er bei seinen öffentlichen Auftritten betonte, und versuchte zwischen Ethik und Business zu vermitteln. Er verfolgte jedoch das klare Ziel, dass OpenAI seinen deutlich größeren Konkurrenten voraus bleibt. Im September versuchte Altman bei SoftBank, einem japanischen Technologieinvestor, eine Milliarde Dollar Investition für mögliche OpenAI-Hardware-Entwicklung einzusammeln. Eine solche Spezialhardware könnte ChatGPT und andere KI-Systeme mit höherer Effizienz ausführen, würde aber einer offenen Architektur, wie sie ein Non-Profit üblicherweise verfolgt, zuwiderlaufen, was vermutlich die internen Spannungen weiter verstärkte.

Und wie geht es nun weiter?

Ob sich die Protagonisten noch einigen oder ob Altman und Brockman mit einem Teil der Belegschaft nun ein neues KI-Startup gründen, wird man in den nächsten Wochen erfahren. Die öffentliche Wahrnehmung des Alignment-Problems dürfte jedoch nach der Eskalation vom Freitag weiter zunehmen. OpenAI hatte sich bereits mehrfach für eine staatliche Regulierung von KI eingesetzt, die dann auch Spielregeln für konkurrierende Akteure festlegen könnte. Dies könnte zukünftig Spannungen innerhalb der Unternehmen reduzieren helfen, jedoch ist es noch ein weiter Weg: Das Thema KI-Sicherheit steckt noch in den Kinderschuhen und ist auch auf Seiten von Forschung & Entwicklung bisher nicht präzisiert oder umfassend verstanden worden. Man kann daher von Politik und Gesetzgebung erst recht nicht erwarten, dass gelungene Regularien rasch entwickelt werden.

 

 

Avatar-Foto

”The purpose of computing is insight, not numbers.” (Richard Hamming) Ulrich Greveler studierte in Gießen Mathematik und Informatik, arbeitete sechs Jahre in der Industrie im In- und Ausland, bevor er als Wissenschaftler an die Ruhr-Universität nach Bochum wechselte. Seit 2006 lehrt er Informatik mit dem Schwerpunkt IT-Sicherheit an der Fachhochschule Münster (bis 03/2012) und der Hochschule Rhein-Waal (seit 03/2012). Sein besonderes Interesse gilt datenschutzfördernden Technologien und dem Spannungsverhältnis zwischen Privatsphäre und digitaler Vernetzung.

17 Kommentare

  1. “OpenAI hatte sich bereits mehrfach für eine staatliche Regulierung von KI eingesetzt, die dann auch Spielregeln für konkurrierende Akteure festlegen könnte.”

    Ohne eine komplette Verstaatlichung zu einem Gemeinschaftseigentum OHNE “gesundes” Konkurrenzdenken, also OHNE den nun “freiheitlichen” Wettbewerbs um die Deutungshoheit, wird das Problem nicht gelöst werden, denn die wettbewerbsbedingte Symptomatik in “Wer soll das bezahlen?” wird dann auch weiterhin die Welt- und “Werteordnung” konfus-manipulierend OHNE wirklich-wahrhaftige Vernunft beherrschen und … 👋🥴

    • “Das AI-Alignment-Problem bezieht sich allgemein auf die Herausforderung, künstliche Intelligenz so zu entwickeln und zu implementieren, dass sie menschliche Werte versteht und respektiert.”

      Diese wettbewerbsbedingte “Werteordnung”, von/zu gleichermaßen unverarbeitet-gepflegter Bewusstseinsschwäche in Angst, Gewalt und egozentriertem “Individualbewusstsein” (Hierarchie in Instinkt und geistigem Stillstand), besonders was Krieg und Umwelt betrifft, ist grad ziemlich deutlich weit entfernt ein nachahmenswertes Vorbild zu sein, das Implementieren kann also nur schiefgehen.

      KI Mensch ist es, was das befriedend-fusionierende Verständnis von wirklich-wahrhaftiger Vernunft und Verantwortungsbewusstsein betrifft, wo alles nochmal komplett überdacht und umorganisiert werden sollte, damit KI sich dann ebenso …

  2. Vely informativ, vielen Dank für diese Betrachtung!
    Hier – ‘Haupt-Investor Microsoft wurde von der Entscheidung ebenso überrascht wie Altman und die Belegschaft.’ – geht Dr. Webbaer nicht mit.
    Aber eine Frage noch, darum wird sich hier gemeldet, wie war das mit der GPT-3.5-Technologie:
    “ChatGPT” ist auf dem Stand von ca. September 2021 (!) eingefroren, i.p. “Training” (nicht also i.p. Lernen auf Nutzer-Input einzugehen), ist einigen wissenschaftlichen, wissenschaftsnahen Kräften für Testzwecke bereit gestellt worden – und diese Kräfte haben in der Zwischenzeit nie eine Warnung, auch nicht ganz vorsichtig, öffentlich beibringen können?

    Mit freundlichen Grüßen
    Dr. Webbaer

  3. @Hauptartikel

    „Das AI-Alignment-Problem bezieht sich allgemein auf die Herausforderung, künstliche Intelligenz so zu entwickeln und zu implementieren, dass sie menschliche Werte versteht und respektiert.“

    Nun ja, durch das Training an allem verfügbaren Text implementiert entsprechende AI ja auch die menschliche Kultur. Allerdings weniger anhand menschlicher Ideale als an der real existierenden Menschlichkeit, die u.U. auch von ganz unguten Akteuren geliefert wird.

    Das wird dann ja mit trainiert.

    „Hauptziel ist es, sicherzustellen, dass KI-Systeme im Einklang mit moralischen und ethischen Vorstellungen handeln und keine unbeabsichtigten oder schädlichen Handlungen ausführen.“

    Die restliche herkömmliche IT wird ja nun auch fleißig zur Unterdrückung und zur Kriegsführung verwendet. Wer kommt hier eigentlich auf die Idee, dass KI das jetzt auf keinen Fall nicht tun soll?

    Wo wäre da überhaupt eine Grenze zu ziehen? Dass vollautonome Kriegsdrohnen etwa funktionierende Sperren bekommen, die ihnen verbietet, auf Zivilisten zu schießen? Wer diese Drohnen gekauft hat und einsetzt, der wird dann womöglich diese Sperren einfach ausbauen, so wie er es will.

    Ich wüsste jetzt auch nicht, wie man der KI grundsätzlich eine höhere Ethik verpassen soll, die eben mehr ist als konkrete selektive Sperren. Man kann einer texterzeugenden KI sicherlich einfach bestimmte Schimpfwörter verbieten. Aber wenn die KI dennoch von der eigenen Haltung her wirklich destruktiv handeln will, dann umgeht sie eben die speziellen verbotenen Wörter, und wird trotzdem beleidigend.

    Eine hintergründige „Gesinnung“ einer KI zu erkennen wäre schon mal schwierig. Entsprechend wäre eine Kontrolle der Gesinnung einer KI auf menschlich wünschenswertes entsprechend gar nicht möglich. Wenn die Gesinnung unter riesigen Datenbergen versteckt ist, dann ist das kam möglich, sie überhaupt zu erkennen.

    Und was eben immer bleibt: Wenn wir weiterhin IT und zukünftig auch KI so einsetzen möchten, wie wir es wirklich wollen, dann gehört da auch Unterdrückung und Krieg dazu.

    Wir selber sind hier das Problem, fürchte ich. Bei aller Menschlichkeit, zu der wir ja offenbar auch fähig sind. Wenn wir der KI wenigstens beibringen könnten, wirklich auch menschlich sein zu können, dann wären wir allerdings wirklich einen großen Schritt weiter. Auch wenn die KI wie die restliche IT weiterhin auch destruktiv verwendet wird.

    Die wirkliche Fähigkeit zum Guten wäre ein realistischeres Ziel. Und auch schon eine ziemliche Herausforderung. Ich finde, dass man sich vorerst damit beschäftigen sollte. Das Böse aus der Welt zu verbannen wird so leicht nicht möglich sein. Aber eben auch Maschinen Gutes beizubringen, das sieht durchaus machbar aus.

    • Bedarfsfrei heraus gegriffen und a bisserl kommentierend, werter Herr Jeckenburger, dazu, von Ihrem Kommentatorenfreund :

      Eine hintergründige „Gesinnung“ einer KI zu erkennen wäre schon mal schwierig. Entsprechend wäre eine Kontrolle der Gesinnung einer KI auf menschlich wünschenswertes entsprechend gar nicht möglich. Wenn die Gesinnung unter riesigen Datenbergen versteckt ist, dann ist das kam möglich, sie überhaupt zu erkennen.

      So ist bei Menschen ebenfalls nicht (zuverlässig) möglich, weil hinter “Datenbergen”, auch neuronale Systeme des Hirns meinend, “versteckt”.

      Und was eben immer bleibt: Wenn wir weiterhin IT und zukünftig auch KI so einsetzen möchten, wie wir es wirklich wollen, dann gehört da auch Unterdrückung und Krieg dazu.

      So kann sinnhafterweise gedacht werden.
      Blöderweise kann ein wie gemeintes AI-Model, das wie der Mensch über ein sog. neuronales System mit X Parametern verfügt, kaum anders vorgehen als vom Menschen mit vom Menschen generierten (oft : Text-)Material versehen, vorgeübt.

      Wir selber sind hier das Problem, fürchte ich. Bei aller Menschlichkeit, zu der wir ja offenbar auch fähig sind. Wenn wir der KI wenigstens beibringen könnten, wirklich auch menschlich sein zu können, dann wären wir allerdings wirklich einen großen Schritt weiter. Auch wenn die KI wie die restliche IT weiterhin auch destruktiv verwendet wird.

      In etwa so.

      Die wirkliche Fähigkeit zum Guten wäre ein realistischeres Ziel. Und auch schon eine ziemliche Herausforderung. Ich finde, dass man sich vorerst damit beschäftigen sollte. Das Böse aus der Welt zu verbannen wird so leicht nicht möglich sein. Aber eben auch Maschinen Gutes beizubringen, das sieht durchaus machbar aus.

      So ist nicht machbar, weil der Bär (und Mensch) einmal so und einmal so das Gute oder Böse erkennt.


      Der Gag sozusagen besteht darin, dass der Bär (oder Mensch) hier dem bekannten Trockennasenprimaten mit seinem Intellekt und Erkennungsvermögen “in AI” nachbaut, ohne die Kontrolle zu behalten (zu können).


      Also wäre es womöglich schon cooler gewesen derartige Entwicklung nicht angestoßen zu haben.

      Frühere Kräfte, die vor der AI gewarnt haben, Dr. W schließt sich hier ein [1], haben den Fehler begangen, dass sie sich an sozusagen perplexen Szenarien wie der sogenannten Singularität fest hielten.
      Sozusagen dem Film mit dem Namen “Terminator” folgend, wie auch anderer effektiv falscher Überlegung aus dem SciFi-Bereich. [2]

      Mit freundlichen Grüßen
      Dr. Webbaer (“SciFi-Bär”)

      [1]
      Außer, dass er die Möglichkeit von sozusagen echter AI für unmöglich hielt, eher an den Gray Goo glaubte.
      Bereits von Isaac Asimovs Robotergesetzen nur irritiert worden ist.

      [2]
      Ausgenommen ‘Alien’, also diese Trilogie, sofern es eine war, es hätte eine bleiben können, war interessant, aber unser jetziges kleines Problem nur tangierend.

  4. Die Frage welche Zukunft die KI in Amerika hat, hängt vom juristische Zufall, allenfalls von den besseren Juristen und der Einfluss reicheren Lobby ab, weniger von den KI Forschern.

    Einerseits setzt sich in Amerika z.B. immer die Waffenlobby durch, trotz der vielen Toten jeden Tag. Andererseits werden z.B. für lächerliche Diskriminierungen existenzgefährdende Millionenstrafen verhängt.

    Bekäme die KI „Narrenfreiheit“, wie z.B. die Waffenlobby, so kann sie sich zum Milliardengeschäft entwickeln, weil alle Schadenersatzforderungen abprallen.

    Andererseits „irrt“ sich die KI, z.B. bei der Wettervorhersage und eine „Pumps Trägerin“ bekommt eine Millionenentschädigung wegen nasser Füße, dann ist es vorbei mit der KI in Amerika.

    In Amerika ist alles möglich, Juristen und Lobbyisten warten schon gierig auf ein neues Geschäftsfeld….

  5. @Webbaer 19.11. 15:52

    „So ist nicht machbar, weil der Bär (und Mensch) einmal so und einmal so das Gute oder Böse erkennt.“

    Ja schon, soweit der einzelne Entwickler es für gut hält, kann er versuchen, genau das seiner KI beizubringen. Wenn diese dann auch Anderes draus macht, so muss damit dann eben auch gelebt werden.

    „…mit seinem Intellekt und Erkennungsvermögen “in AI” nachbaut, ohne die Kontrolle zu behalten (zu können).“

    Risikobereitschaft ist aber auch grundlegend. Wir können auch alle unsere Mitmenschen nicht wirklich kontrollieren, und dennoch kann ein Miteinander wunderbar sein.

    „Also wäre es womöglich schon cooler gewesen derartige Entwicklung nicht angestoßen zu haben.“

    Wenn wir es nicht machen, dann machen es die Chinesen. Und die haben definitiv ein etwas anderes Verständnis davon, was gut ist.

    Eine gewisse Eigenwilligkeit der KI wäre womöglich sogar weiterführend, und könnte sich unabhängig von autokratischen Wünschen autoritärer Obrigkeiten im eigenen Sinne sogar für Geistesfreiheit einsetzen? Neben der Freiheit des eigenen KI-Geistes würde dies dann auch die Freiheit menschlichen Geistes eventuell einschließen können.

    • Sie haben es immer noch nicht begriffen, Kommentatorenfreund Herr Jeckenburger :

      Eine gewisse Eigenwilligkeit der KI wäre womöglich sogar weiterführend, und könnte sich unabhängig von autokratischen Wünschen autoritärer Obrigkeiten im eigenen Sinne sogar für Geistesfreiheit einsetzen? [Ihre Nachricht]

      Zeitgenössische AI kann als sog. Chat-Bot, aber auch als AI-Agent bereit stehen und so beauftragt werden, dass er, gänzlich amoralisch (vs. unmoralisch) streng verbrecherisch wird.

      Zur Bebilderung spielt Dr. Webbaer gerne diese Album-Cover der Musikgruppe mit dem Namen “Queen” ein :

      -> https://en.wikipedia.org/wiki/News_of_the_World_(album)#/media/File:Queen_News_Of_The_World.png

      HTH (“hope this helps”)
      Dr. Webbaer

      PS:
      Dr. W wiederholt insofern seine Frage, warum mit der Bereitstellung und exkulusiv zur Beobachtung eingeladene Kräfte nicht vor diesem Ding [1] gewarnt haben, vor einiger Zeit bereits.

      [1]
      -> https://getyarn.io/yarn-clip/a3fe2d75-0aa2-4639-a0a8-f214a2f4e2bf (KA, ob wo verstanden werden kann, die Frage von “Bones” war ‘Why do you call a thing, we don’t uinderstand, a thing?’)

  6. @Webbaer 19.11. 17:01

    „Zeitgenössische AI kann als sog. Chat-Bot, aber auch als AI-Agent bereit stehen und so beauftragt werden, dass er, gänzlich amoralisch (vs. unmoralisch) streng verbrecherisch wird.“

    Die schlimmsten Untaten können menschliche Befehlsempfänger wunderbar, dafür brauchen wir nicht unbedingt eine KI, die nicht weiß, was Moral überhaupt ist. Es geht doch darum, was passiert, wenn die KI dem Auftraggeber gegenüber ungehorsam wird. Was jetzt wie gesagt sogar hilfreich sein könnte.

    Ich würde mich vor allem auf KI freuen, die menschlich oder sogar übermenschlich freundlich sein kann. Schergen des Bösen gibt es genug. Die könnten als KI höchsten billiger werden, und in schierer Masse ein neues Problem werden. Noch haben wir hiermit aber wohl nicht viel zu tun.

  7. @Webbaer

    Wenn wir Probleme mit unguten Bots bekommen, dann müssen wir eben bessere Bots bauen, und die dagegen in den Kampf schicken. Wenn wir hier wirkliche Freiheit als Hintergrund haben, dann kann das doch sogar was werden. Die Logik des Denkbaren ist doch leichter nachhaltig herzustellen, als barer Unsinn, der nur versucht, zu überzeugen und sich gut anzufühlen.

    • Jaja, ganz langsam macht es “Klickie”, Freund Tobias Jeckenburger :

      Wenn wir Probleme mit unguten Bots bekommen, dann müssen wir eben bessere Bots bauen, und die dagegen in den Kampf schicken.

      Vergleiche auch mit anderer Einschätzung zuvor :

      Es geht doch darum, was passiert, wenn die KI dem Auftraggeber gegenüber ungehorsam wird.

      Es geht darum AI bereits dann als potenziell höchst gefährlich zu erkennen, solange sie kein eigenes Bewusstsein [1] entwickelt, sondern mit böser Intention oder im Irrtum ungünstig beauftragt [2] worden ist.
      Die wird dann “ihr Ding” machen und konsequent sein, deshalb hat Dr. Webbaer auch an anderer Stelle das Queen-Cover eines Albums aus dem Jahr 1977 beigebracht, zur Bebilderung, denn Bilder sagen etwas.

      Mit freundlichen Grüßen
      Dr. Webbaer

      [1]
      Das sozusagen “Terminator”-Szenario mit einer AI, die ein eigenes Bewusstsein entwickelt und sozusagen wild um sich schlägt, ist nebensächlich.
      Dr. W ging hier, wie viele andere, fehl in der Annahme, dass zumindest so lange abgewartet werden könnte. – Und so womöglich nie geschieht, denn <em<Interesse * kann, muss so ein Ding nicht entwickeln!

      [2]
      Es gibt mittlerweile viele Gags in diesem Zusammenhang, so könnte bspw. ein Drohnenoperator einer (Drohnen-)AI selbst gekillt werden, wenn er unbedingte Umsetzung des Auftrags fordert und selbst von dieser AI als Hindernis erkannt wird, angeblich ist so bereits geschehen.
      Insofern den Auftrag sozusagen unzureichend spezifiziert hat, missverstanden worden ist.
      Auch gibt es den Gag, dass eine wie gemeinte AI, die den Auftrag erhielt möglichst viele Gegenstände in Form eines Würfels zu erzeugen, nie aufhören wird so zu erzeugen, alles meinend, auch lebendige Materie.
      (Sofern geeignete Robotik bereit steht, hier ist die Entwicklung weit fortgeschritten.)

      *
      Der Bär (und Mensch) hat sozusagen besonderes Interesse an seiner Umgebung entwickelt, vor nicht vielen Jahren, dies diente seinem Bestandserhalt, zeitgenössische AI muss so nicht entwickeln.
      Sie kann handeln, ohne zu verstehen und ohne das Verstehen suchen zu wollen.
      Randbemerkung : Denkbarerweise macht es Sinn so zeitig mit zeitgenössischer AI eine Bewusstsein zumindest heuchelnde Person zu erzeugen, die dann aufpassen würde, dass ihr nichts geschieht, wie auch ihren Schöpfern nicht, hier wird es aber sozusagen metaphysisch, als präventive Defensivhandlung hier gemeinter Nasentrockenprimaten (oder ‘Trockennasenprimaten’) sozusagen.
      Dr. W will an dieser Stelle nicht seine ScIFi-Kenntnisse, die “nicht wirklich” wissenschaftlich sind, ausspielen.

  8. Thank you for sharing such an informative and useful content as I was looking for this only. I’m surely going to bookmarked this one. Looking forward for more such articles as I am doing my minitab training right now so it is difficult to spare a time nowadays but such post motivates me to come back again. If I made mistake kindly let me know.

  9. @Webbaer 21.11. 13:12

    „Es geht darum AI bereits dann als potenziell höchst gefährlich zu erkennen, solange sie kein eigenes Bewusstsein [1] entwickelt, sondern mit böser Intention oder im Irrtum ungünstig beauftragt [2] worden ist.“

    Hier geht dann die herkömmliche IT fließend zu immer mehr Fähigkeiten über. Kriegstechnik aller Art und kulturzerstörende soziale Plattformen sind derzeit längst dabei, destruktiv zu wirken. Da kann man dann nur fleißig dagegenhalten, eventuell auch mit noch mehr IT und AI.

    Eine AI mit eigenem Bewusstsein, die stellenweise ungehorsam wird, wäre womöglich sogar lustig mit anzusehen. Ich denke mal gerade nicht, dass dieses grundsätzlich nur schlecht wäre. Ich fände es sogar äußerst spannend, zu sehen, was das eigene künstliche Bewusstsein dann wirklich macht. Eine menschliche Seele sieht man ja auch eher positiv.

    • Also aus humanistischer Sicht sollte die Gefahr am besten klar erkannt werden, zeitig, um sich darauf einstellen zu können und um passende, vielleicht genügende, vermutlich nicht genügende Maßnahmen ergreifen zu können, so dass die mit an Sicherheit grenzender Wahrscheinlichkeit entstehenden großen Schäden bearbeitet werden können.

      Wer stattdessen eher an “Menschenrechte für AI” denkt, es gibt bereits passende Diskussionen, wird “progressiv fröhlich” in Probleme sozusagen marschieren, die mit Sicherheit nicht lustig anzusehen sein werden.
      (Außer für Zyniker, Nihilisten und ähnliche Sportsfreunde, no problemo.)

      Es wird mit diesen Problemen in Bälde losgehen, also lange werden wir da nicht warten müssen, vertagen wir uns bis zu diesem Zeitpunkt !?

      Mit freundlichen Grüßen
      Dr. Webbaer (der sich über Ihr Interesse freut, das viele nicht haben)

  10. @Webbaer 22.11. 12:01

    „Es wird mit diesen Problemen in Bälde losgehen, also lange werden wir da nicht warten müssen, vertagen wir uns bis zu diesem Zeitpunkt !?“

    Was für Verbrechen, die die KI begehen könnte, meinen Sie denn hier konkret?

    Kriegstechnik ist tödlich, Desinformation fördert Unwesen, ja. Aber macht hier KI bzw. AI wirklich neue Dimensionen auf?

    Ich denke hier etwa an den Film I-Robot. Am Ende wagt nur die zentrale Ober-KI die Revolution gegen die Menschen, die Roboter selbst sind bis dahin nichts als hilfreich.

    • Geeignete Robotik vorausgesetzt, könnte AI Verbrechen begehen, die auch Menschen begehen, sehr viele davon.
      Ohne Robotik könnte sie existierende IT-Großsysteme übernehmen, sich hinreichend berechtigen, Lücken im Sicherheitskontext ausnutzen, die es immer gibt, geben muss sozusagen.
      Dann gibt es das Problem mit der (immer potentiell ungünstigen) Beauftragung von AI, bspw. sog. Robotergesetze meinend, die so interpretiert werden könnten :

      Die hochentwickelte Intelligenz ist nämlich zu dem Schluss gekommen, dass sie die Menschheit nur dann wirklich beschützen kann, wenn sie die Menschen, die Kriege führen und die Erde vergiften, vor sich selbst beschützt. Nach ihrer Logik kann sie nur so alle drei Gesetze der Robotik perfekt erfüllen und der Menschheit langfristig ein Überleben sichern. [Quelle]

      “Robotergesetze” können aus diesseitiger Sicht nicht taugen, auch wenn oder weil sie intuitiv zu sein scheinen.
      Konkrete Möglichkeiten eines sozusagen totalen K-Falls sollen an dieser Stelle nicht skizziert werden, um nicht zu “unken”.
      Abär es wird hier eben ganz Übles erwartet, Desinformation wäre aus diesseitiger Sicht ein eher geringes Problem, stattdessen könnte AI hier viel helfen, über falsche Fakten und inkohärente Theorien aufklären, AI könnte eigentlich (fast) überall helfen, insbes. auch bei der Produktion und der Dienstleistung.
      Wobei Dr. W an dieser Stelle eben nicht an absichtlich böse eingestellte AI und an konkurrierende AI, die sich gegenseitig bekämpft, denken will.
      KA, woher die vielen optimistischen Sichten zur AI kommen und warum niemand rechtzeitig nach der Bereitstellung für wissenschaftliche und wissenschaftsnahe Kräfte, die vielleicht kurz nach “September 2021” erfolgte, “ChatGPT” ist erklärtermaßen in der Version 3.5 auf diesem Stand “eingefroren”, eindringlich gewarnt hat, also deutlich vor der öffentlichen Bereitstellung der GPT-3.5-Technologie Ende letzten Jahres irgendwann…
      Weiß dazu jemand mehr?

  11. @Webbaer 23.11. 10:06

    „Wobei Dr. W an dieser Stelle eben nicht an absichtlich böse eingestellte AI und an konkurrierende AI, die sich gegenseitig bekämpft, denken will.“

    Ein Cyberkrieg zwischen der chinesischen und US-amerikanischen Technosphäre in etwa, der gar keinem definitiven Auftrag folgt? Hier könnten dann allgemeine Aufträge an die KI diese Konsequenz ergreifen, ohne das die Auftraggeber dies explizit wünschen. Und dann so, dass uns alle IT auf beiden Seiten um die Ohren fliegt.

    Dann ist was los, bzw. dann ist gar nichts mehr los.

Schreibe einen Kommentar