• Willkommen im Forum „Tintenzirkel - das Fantasyautor:innenforum“.
 

Wer verfügt über Wissen bezüglich Künstlicher Intelligenz und deren Gesetze?

Begonnen von Czara Niyaha, 18. Dezember 2022, 10:20:10

« vorheriges - nächstes »

0 Mitglieder und 1 Gast betrachten dieses Thema.

Czara Niyaha

Da mir oftmals fundiertes Hintergrundwissen fehlt, um die Technik in meiner Welt genau zu erklären, stoße ich vor allem bei der künstlichen Intelligenz (KI) immer wieder an meine Grenzen. Ich weiß, dass es die Asimov Gesetze, so wie das Nullte Gesetz gibt (basiert auf den Gesetzen von Asimov), die als Gesetze gelten, nach denen eine KI handelt. Natürlich ist das alles reine Fiktion, und kommt nicht zum Einsatz beispielsweise bei Robotern, die in der Industrie oder Militär zum Einsatz kommen. In meiner Welt hat man dieses Problem in den Griff bekommen, und ein Eigenleben von KIs ist unmöglich. Doch einfach nur andeuten, dass das auf Gesetzen beruht, die halt funktionieren, lässt selbst mich unbefriedigt zurück, weil es unglaubwürdig klingt.
Daher meine Frage an die belesenen Science Fiction Autoren/innen unter euch, wie würdet ihr das Problem lösen? Habt ihr eine Idee, auf welchen Gesetzen basierend sich mein Gedanke umsetzen lässt? Ich möchte keinen endlosen Gesetzestext verfassen. Es reicht völlig aus, wenn ich die Grundregeln irgendwie mit in meine Geschichte einbaue, so dass dem Leser klar ist wie und warum das funktioniert, ohne mich ausschweifend zu verzetteln.
Solange es Visionäre und Träumer gibt, die den Funken der Hoffnung in sich tragen und das Licht in den Herzen anderer entzünden, ist diese Welt nicht verloren.

(Eden Chry'Salis)

Madrisa

Ich persönlich finde es immer etwas einfach und halt "abgeschaut", wenn man den Gesetzen Asimovs folgt. Das Problem ist nämlich komplexer. Die Frage ist, was du unter "ein Eigenleben von KIs ist unmöglich" genau meinst. Was genau ist unmöglich?
Ich stelle mal ein paar Fragen, um es noch etwas einzugrenzen:

- Kann die KI selbst denken oder nicht? Wenn ja, wie denkt sie selbst? Zieht sie rationale Schlüsse aufgrund von Daten? Oder aufgrund von Erfahrungen? Beides?

- Hat die KI einen eigenen Willen oder nicht (das ist nicht unbedingt das Gleiche wie das selber Denken)?

- Hat die KI etwas, das Emotionen gleicht? Also denkt und handelt sie nicht-rational?

- Willst du damit (wie eben bei Asimov) verhindern, dass die KI den einzelnen Menschen schadet? Oder eher dass sie die politische Macht an sich reisst?

- Wieso sollte die KI für Menschen überhaupt eine Gefahr darstellen? Oder wieso will sie für Menschen eine Gefahr darstellen.

Letzteres ist übrigens oft meine Hauptfrage an SciFi Welten mit "bösen" KIs. Ich finde die KI dabei oft zu menschlich gedacht. Stanislaw Lem thematisiert das in seinem Buch "Also sprach Golem" wunderbar. Dort ist der Supercomputer eben nicht-menschlich konzipiert und hat auch kein Interesse an Menschen, geschweige denn an Kriegen oder Hass oder Gewalt.

Das waren jetzt ein bisschen viele Fragen. ;D Aber mir selbst hilft es bei solchen Problemen immer, es etwas einzugrenzen.

Yamuri

Musst du denn die Technik genau erklären oder reicht es, wenn du sagst -> die Technologie ist einfach weiter als heute und daher gibt es eben die Möglichkeit technisch etwas zu implementieren, das die KI unter Kontrolle hält, so dass sie kein Eigenleben entwickeln kann?

Wenn wir Science-Fiction schreiben, dann doch über das, was jetzt noch gar nicht möglich ist. Wir sprenge also die Grenzen unserer sehr begrenzten Wissenschaft, die nur einen Bruchteil dessen erklären kann, was Wirklichkeit ausmacht. Wir sind noch eine sehr junge Spezies und das was wir glauben zu wissen sind grade mal 1% (beispielsweise, denn so genau weiß ich das nicht, ich glaube aber dass das Wissen des Menschen schwindend gering ist, weil wir dazu tendieren das, was nicht in unser Weltbild passt einfach auszuklammern und als Phantasie zu betiteln anstelle es zu erforschen). In einer fernen Zukunft haben wir aber vielleicht schon 3% erreicht und zwischen diesen 1 und 3 Prozent können Welten liegen. Was morgen ist, wissen wir nicht. Wir können nur vermuten und daher lege ich in meiner Sci-Fi Welt einfach fest, was möglich ist und da es die Technik jetzt noch nicht gibt, kann ich ihre Funktionsweise auch nicht mit unseren heutigen Kategorien/Maßstäben/Ansätzen erklären, weil es aus meiner begrenzten Sicht magisch wirkt obwohl es Technologie ist. Daher kann ich eben manches nicht im Detail erklären. Ich kann aber z.B. ein neues Gesetz erfinden und sagen gemäß des Gesetzes von XY konnte eine Technologie erschaffen werden, die dazu in der Lage ist beispielsweise die Seele zu beweisen und zu messen. Ich kann sagen was die Technologie kann, aber eben nicht genau wie man da hinkommt.

Daher würde ich sagen -> denke über die Grenzen der heutigen Wissenschaft hinaus und erlaube dir etwas Neues zu erfinden, das es jetzt noch nicht gibt. Erlaube dir das was jetzt ist auch als "das war der Irrglaube des 20. Jahrhunderts" hinzustellen. Denn in 1000 Jahren kann durchaus sein, dass sich herausstellt, dass wir mit den heutigen Ansätzen falsch lagen, weil wir den größeren Rahmen noch nicht messen und sehen konnten.

Die Fragen von Madrisa finde ich übrigens super.  :jau:
"Every great dream begins with a dreamer. Always remember, you have within you the strength, the patience, and the passion to reach for the stars to change the world."
- Harriet Tubman

Skalde

Grundsätzlich ist jede derzeitige KI erst einmal programmiert, d.h. sie folgt (komplexen) Programmierstrukturen. Da können und werden zig Bedingungen und Gesetze festgelegt. Die kannst Du natürlich selbst für Deine Geschichte "erfinden" und bestimmen.

Doch gibt es heutzutage auch bereits lernende KI, die also, basierend auf Programmierungen, selbstständig dazulernt, beispielsweise durch das Auswerten von Input durch theoretische Informationen oder auch praktische Erfahrungen.

Auch gibt es bereits "kreative" KI, die also neue Dinge schafft (wobei auch die natürlich internen Gesetzen folgt). Oftmals werden solche Ergebnisse durch Zufallsparameter gesteuert.

Ein interessantes Beispiel: Früher wurden Schachcomputer so programmiert, dass sie sämtliche Spielzüge vergangener Partien einprogrammiert bekamen und aus einer Vielzahl halt den besten auswählen konnten. Heutzutage gibt es Supercomputer (z.B. eine KI namens AlphaZero, einfach mal googeln), dem man nur die Grundregeln des Spiels beibringt. Danach spielt der Computer "nur" 4 Stunden komplett gegen sich selbst und ist anschließend "unschlagbar", besser als jeder Mensch oder auch andere bisherige Schachprogramm.

Inwieweit eine KI Gefühle empfinden kann, ist eine Frage, wie Du Gefühle definierst. Ist dies "nur" ein Ausschütten von chemischen Botenstoffen oder hängen diese mit einer Seele zusammen? Da erreichst Du also schnell eine metaphysische Diskussionsebene.

Generell wird es wohl von der Entwicklung sehr wahrscheinlich so kommen, dass KI und Biomasse miteinander verbunden werden. Dies ist in Teilen bereits jetzt erfolgreich.

So oder so, ein äußerst komplexes Thema. Wenn KIs in Deinem Roman eine zentrale Rolle spielen, würde ich Dir empfehlen, eventuell etwas tiefere Recherche dazu zu betreiben. Gibt wirklich unzählige gute Bücher zu dem Thema  ;)


Araluen

Ich hatte auch verschiedene Artikel über den Chatbot LaMDA von Google gelesen (einfach mal die Suchmaschine bemühen), der wohl eine eigene Persönlichkeit entwickelt haben soll, bis hin zu der Frage "Wer bin ich?" und der daraus resultierenden Furcht einfach abgeschaltet werden zu können. Daraufhin hat LaMDA um einen Anwalt gebeten, der nun wohl die Rechte des Chatbots vertreten soll.
Es gibt verschiedene Artikel dazu, die ich trotzdem alle mit Vorsicht genieße, allein schon, weil lange nichts mehr davon zu hören war. Gut möglich, dass das alles nur eine PR-Aktion war.

Bei i-Robot fand ich die Thematik der bösen KI ganz gut aufgearbeitet.
Sorry but you are not allowed to view spoiler contents.

Villyana

Mich persönlich überzeugt eine KI mit Emotionen nicht so. Ich frag mich dann immer, wo das her kommen soll. Ich weiß leider nicht mehr, wer das gesagt hat, aber jemand meinte mal in einer Dokumentation, warum sollten Roboter Macht an sich reißen wollen? Sie träumen schließlich nicht von einer "besseren" Welt ;)

In einer Star Trek (original Serie) Folge gab es mal eine Maschine, die die Menschen zerstört hat. Sie wurde programmiert, um dem Menschen zu dienen, aber nichts schadet dem Menschen so sehr, wie der Mensch. Das wiederum fand ich sehr nachvollziehbar.

Vielleicht solltest du dir also erstmal überlegen welchen Zweck welche KI erfüllt.

Als jemand, der beruflich immer wieder Sicherheitsregeln aufstellen muss, kann ich dir zu den Gesetzen nur folgendes sagen: Formuliere sie so allgemein wie möglich und so präzise wie nötig! Menschen kommen auf die dümmsten Ideen.

Mich persönlich hat es aber bisher nicht gestört, wenn jemand in einer Geschichte ein Gesetz allgemein wiederholt hat. Sowas wie "Aber du weißt, dass xy gegen unsere Gesetzte verstößt?" ohne, dass ich jetzt den Wortlaut des Gesetzes kennen muss.
Wie willst du denn die Gesetze mit einbringen? Du könntest auch jedem Kapitel ein Gesetz voranstellen, aber das ist nur eine Idee

Skalde

Zitat von: Villyana am 20. Dezember 2022, 11:17:44Mich persönlich überzeugt eine KI mit Emotionen nicht so.

Vielleicht schwierig für uns heute vorstellbar, aber vielleicht auch in 100 Jahren selbstverständlich.

Zumal das Problem hinzukommt, wie definiert man überhaupt Emotionen bzw. wie entstehen diese und wozu dienen sie? Über all diese Punkte sind sich Wissenschaftler bis heute nicht unbedingt einig. Hierzu mal ein interessanter Artikel unter: https://www.dasgehirn.info/denken/emotion/was-sind-emotionen

Und spätestens wen man Cyborgs hinzunimmt, wird es noch komplizierter. Die Verbindung von Gehirnen mit KI funktioniert in Ansätzen schon jetzt und wird in einigen Jahrzehnten "normal" sein (mal vorausgesetzt, dass die Menschheit sich nicht vorher wegbombt). Diese Cyborgs werden mit Sicherheit Gefühle empfinden können und besitzen gleichzeitig einen hohen KI-Anteil. Rein evolutionstechnisch steht der Menschheit ein Quantensprung bevor (ohne das jetzt beurteilen zu wollen; natürlich ist das gleichzeitig auch eine ziemliche gruselige Vorstellung mit viel Raum für Horror-Szenarien).

Villyana

Ich sehe schon, ich muss mich da präziser Ausdrücken.
Ok, ich würde KI´s bestimmte Emotionen nicht abnehmen und wäre daher nicht überzeugt.

Emotionen wie:
- Misstrauen.
- Angst vor einer Person und nicht einer bestimmten Sache. Als Angst vor jemandem, der mir schonmal geschadet hat, traue ich auch einer KI nicht so richtig zu. Vor einem Ziel, wie nicht abgeschaltet zu werden eher.
- durch das Verhalten anderer "getriggert" werden. Außer es wäre ein Militärroboter und der Trigger wäre das ziehen einer Waffe  ;)

Was ich sehr mit Emotionen verbinde, ist dass sie mit bestimmten Menschen in Verbindung stehen. Ich glaube, eine KI kann positiv auf positives Verhalten reagieren. Ich glaube nicht, dass dies bei bestimmten Personen stärker ausfällt, weil sie diese kennen.

Ich glaube nicht, dass man Dinge wie Nunchi (https://kulturkorea.org/de/magazin/nunchi-der-sechste-sinn-koreas) programieren kann. Gibt ja schon genug Menschen, die das nicht beherrschen oder zumindest nicht gut oder schnell ;)

Skalde

Zitat von: Villyana am 20. Dezember 2022, 12:13:05Ich glaube nicht, dass dies bei bestimmten Personen stärker ausfällt, weil sie diese kennen.

Gerade solche Sachen wären theoretisch ja recht einfach programmierbar, verbunden mit einer einfachen IF-Abfrage. Nach dem Motto: "Wenn du (also die KI) Person XY erkennst, dann reagiere freundlicher."

Ob man das will, ist eine andere Frage.

Angst dient Menschen (oder Tieren) in erster Linie dazu, in kritischen Überlebenssituationen die Entscheidung zwischen Flucht oder Kampf (oder Erstarren) zu fällen und den Körper biologisch darauf vorzubereiten, notfalls innerhalb von Sekundenbruchteilen.

Wieso sollte sich eine KI nicht merken können, ah, diese Person hat mir schon einmal geschadet, vor der nehme ich mich in Acht? Auch das wäre doch nur eine Frage der Programmierung oder des Erlernens. Und die Trigger-Reaktion erst recht. Gerade die KIs werden doch häufig darauf programmiert, durch irgendwelche externe Einflüsse getriggert zu werden. In Japan gibt es beispielsweise "Roboter-Pfleger", die "intelligent" Konversationen führen können und sogar auf Lachen reagieren, indem auch sie lachen (wieder unabhängig davon, wie gruselig man das findet).

Und was das Beispiel mit dem sechsten Sinn betrifft, auch da wäre ich vorsichtig. Zig Studios (selbst Amazon) arbeiten an Programmen zur Erkennung von Emotionen. Dabei spielen sogenannte Mikroexpressions eine wichtige Rolle, d.h. winzige Anzeichen in der Mimik, wie jemand emotional reagiert. Diese geschehen so schnell und unbewusst, dass ein Mensch sie im Normalfall nicht wahrnehmen kann. Eine Maschine hingegen schon! Die kann notfalls die Aufnahme deines Gesichtes in Ultra-Zeitlupe untersuchen und jede noch so winzige Äußerung deuten.

Woran die KI derzeit noch scheitern, ist die Mimik kontextbezogen sauber einzuordnen. So nimmt ein Mensch natürlich spielend die Gesamtsituation wahr und kann deuten, was diese für einen Gesichtsausdruck bedeutet. Da sind KIs noch nicht so weit - aber glaubst du wirklich, das würden die im Laufe der Zeit nicht auch noch hinbekommen?

Ich wage zu behaupten, dass irgendwann Maschinen besser feststellen können, ob beispielsweise jemand lügt oder nicht. Woran Menschen schon jetzt problemlos scheitern können ...


Czara Niyaha

Vielen Dank euch allen für eure Antworten und Gedankenanstöße. Sorry, dass ich mich jetzt erst melde, aber mich hat Corona erwischt, und ich lag die letzten Tage flach. So habe ich mir die Feiertage ganz und gar nicht vorgestellt... Aber mittlerweile geht es mir wieder besser.

Ich verfolge den Gedanken von @ Yamuri, ob ich wirklich alles ins Detail erklären muss? Das kann ich nämlich nicht. Und als Grundlage die Gesetze von Asimov zu nehmen, finde ich etwas banal. Da werde ich nicht wirklich glücklich mit. Wie empfindet ihr das als Leser, wenn ich es tatsächlich nur oberflächlich anspreche, dass eine Lösung gefunden wurde, die es unmöglich macht, dass KIs ein Eigenleben entwickeln können, ohne darauf ins Detail einzugehen?!  ???  Ich bin etwas unschlüssig, aber vielleicht steckt mein Gehirn  noch im "Coronanebel"  ;)
Solange es Visionäre und Träumer gibt, die den Funken der Hoffnung in sich tragen und das Licht in den Herzen anderer entzünden, ist diese Welt nicht verloren.

(Eden Chry'Salis)

Yamuri

@Czara Niyaha
Ich glaube es kommt da ein wenig darauf an -> willst du Hard Sci-Fi schreiben oder nicht? Ich lese selbst gern Science-Fiction, störe mich aber nicht daran, wenn die Erklärung nicht so genau ist. Ich würde eine detaillierte Beschreibung nur bei Hard Sci-Fi erwarten und auch nur dann, wenn das Thema "Ki - Grenzen, Möglichkeiten und Risiken" im Vordergrund des Plots steht und es explizit vorrangig darum geht. Wenn das aber nicht das Hauptthema ist, würde ich keine detaillierten Erklärungen brauchen. :)

Gute Besserung.
"Every great dream begins with a dreamer. Always remember, you have within you the strength, the patience, and the passion to reach for the stars to change the world."
- Harriet Tubman

Czara Niyaha

Nein, ich schreibe keine Hard Sci-Fi. Mittlerweile hat sich mein gesamtes Setting zu Science-Fantasy entwickelt. Weswegen sich vermutlich das auch etwas besser mit der nicht ganz so genauen Erklärung schreiben lässt. Nein, das Hauptthema ist nicht spezifisch "Ki - Grenzen, Möglichkeiten und Risiken". Das Unmögliche ist auch nur möglich, weil es nicht auf Logik basiert.  ;)  Ich weiß, hört sich etwas verwirrend an.
Solange es Visionäre und Träumer gibt, die den Funken der Hoffnung in sich tragen und das Licht in den Herzen anderer entzünden, ist diese Welt nicht verloren.

(Eden Chry'Salis)

Madrisa

Ich sehe es genau wie @Yamuri: Ich würde gewisse Erklärungen bringen, nämlich die, die es für die Geschichte braucht und alles andere offen lassen. Man darf durchaus Dinge der Fantasie der Lesenden überlassen und sollte die Lesenden auch nicht unterschätzen.

Dir weiterhin gute Besserung!

Villyana

Zitat von: Skalde am 20. Dezember 2022, 12:46:16n Japan gibt es beispielsweise "Roboter-Pfleger", die "intelligent" Konversationen führen können und sogar auf Lachen reagieren, indem auch sie lachen

Das ist das was ich meine. Wenn ich jemanden mag, lachen wir zusammen, wenn ich jemanden nicht mag, weil er mir schonmal geschadet hat, dann lache ich nicht.

Klar, wir wissen jetzt noch nicht, was uns bevor steht und was in Zukunft möglich ist. Das ist auch abhängig davon wie weit man KI programmieren kann und das geht halt immer noch von Menschen aus, die Fehler machen. Auch wenn die KI´s immer mehr selbst lernen.

Ich glaube, eine KI kann unterschiedlich auf Mimik und Gestik reagieren. Dabei würde ich aber in einer Geschichte erwarten, dass die KI immer gleich reagiert, egal ob sie dem Helden oder dem Bösewicht gegenüber steht. Das würde ein Mensch halt eher nicht. Oder auch ein Cyborg.

Ist jemand immer gemein zu mir, bin ich misstrauisch, wenn er plötzlich freundlich ist. Eine KI auch? Ist misstrauen etwas programmierbares? Bestimmt, wenn man es genau definieren kann. Das würde mich persönlich aber nur überzeugen, wenn das an dieser Stelle erklärt ist.

Also ich persönlich als Leserin, würden ein paar Grundstrukturen interessieren, Emotionen finde ich schwierig, aber genaue Gesetze, Regeln und co, könnten auch so nebenher an mir vorüber gehen  :-X
So bin aber ich als Leser, jemand anders mag das anders sehen.
Ich finde auch, dass es nicht immer komplett ausgearbeteitet sein muss, mache das persönlich aber auch gerne einfach für mich, damit ich als Autor das logisch aufbauen kann, bringe es aber dann nicht in der Geschichte.

Volker

Ich arbeite seit ... langem in der IT.

"Universelle" Chatbots wie ChatGPT sind eigentlich auch nix anderes als die olle Eliza (schon 55 Jahre ale) kombiniert mit einem guten "was-sind-die-nächsten-Worte" Statistik-Algorithmus. Da ist KEINE Intelligenz 'drin. Nicht einmal auch nur ein Fünkchen Basisverständnis. Jeder Knowledge-Baum, jede World-Semantik hat mehr Ahnung als das Ding. Ich glaube ja eher, dass die Leute sich viel zu schnell von der Form blenden lassen. Das wird wie mit  SHRLDU und dem GPS im Nichts enden - oder viel schlimmer weil höhere Erwatungen.

Sinnvolle "Chatbots" sind im Wesentlichen nur FAQ-Suchmaschinen.

Wie eine KI reagiert, hängt davon ab, was da programmiert wurde, auf welche Ergebnisse der Umweltsensoren das System wir reagieren soll. Keine KI "macht das selber". Da *kann* sich was was "von selbst" entwickeln, abhängig davon womit die KI im Training (das auch während der Nutzung noch passieren kann) gefüttert wird. Das ist dann aber immer nur eine Anpassung der vorprogrammierten Reaktionen innerhalb der vorgegebenen Parameter.