Schülerwettbewerb 2024
PhilosophieArena
Lea Lusch
Goethe-Gymnasium Bensheim
Eine Sache unterscheidet Mensch und Roboter ganz klar: Ihr Aussehen. Und ihr Aubau. Während man innerhalb eines Roboters größtenteils Kabel und technische Apparaturen findet, hat ein Mensch solche Dinge eher nicht oder nur selten in sich, und das auch nur, weil er sonst nicht überleben würde. Sonst haben wir noch Knochen, Zellen, Nerven und sogar ein Gehirn, und das hat ein Roboter nun wirklich nicht.
Menschen erfüllen alle fünf Kennzeichen des Lebens (Fortpflanzung, Stoffwechsel, Reizbarkeit, Wachstum und Bewegung aus eigener Kraft), ein Roboter aber nur eins, und das auch nur eingeschränkt: Er kann Berührungen an bestimmten Stellen (Sensoren) wahrnehmen (Reize). Fortpflanzen, Stoffwechsel betreiben, wachsen und Bewegung aus eigener Kraft (er kann ja keine Energie selbst durch verdaute Nahrung wie wir erzeugen, er benötigt Batterien oder einen Akku) bekommt er wohl kaum hin.
Ein ziemlich wichtiger Unterschied ist auch, dass Roboter ja von Menschen erschaffen wurden, und zwar, um ihnen zu helfen. Roboter und KI unterstützen den Menschen ja auch mit dem, was sie tun – andersrum ist das nicht der Fall. Außer wenn Menschen KI neue Sachen beibringen, aber das machen sie nicht, weil die KI etwas von ihnen verlangt, sondern aus eigenem Interesse. Und da wären wir an einem wichtigen Punkt: Aus eigenem Interesse. Hat KI überhaupt eigenes Interesse oder eine eigene Meinung? Hat KI Vorlieben und kann sie Gefühle empfinden? Also können sie etwas, was nach unserem Wissensstand nur Lebewesen und ganz besonders Menschen können?
Ich habe das im Bing-Copilot gleich mal ausprobiert. Eine Lieblingsfarbe hat der Copilot nicht, er schreibt, er seie ein KI-Modul und habe keine persönlichen Vorlieben. Als Nächstes schrieb ich, ich würde mich freuen, von ihm zu hören, er antwortete, er freue sich ebenfalls, mit mir zu sprechen. Er freut sich. Also empfindet er das Gefühl Freude? Kann er wirklich Gefühle empfinden oder hat irgendein Entwickler ihm diesen Satz beigebracht, damit er höflicher klingt? Ich glaube eher letzteres. Als Probe fragte ich den Copilot, was für Gefühle er gerade empfindet. Logischerweise wäre die Antwort Freude, denn einen Satz zuvor schrieb er ja noch, er würde sich freuen, mit mir zu sprechen, aber er schrieb, er habe als KI-Modul keine Gefühle, aber er wäre hier, um mir zu helfen. Waren das etwa Anzeichen für Hilfsbereitschaft? Genau das fragte ich den Copilot von Bing dann auch. Er sagte, dass er das sage, aber keine Gefühle habe, aber dass das als Hilfsbereitschaft interpretiert werden könne. Dann wollte er das Thema wechseln. Dort fragte ich ihn etwas bezüglich der eigenen Meinung: Würde er eine Organspende machen, wenn er Organe hätte? Nachdem ich die Frage zweimal umformuliert hatte, gab er die Antwort ja. Also hat er eine eigene Meinung? Um das wirklich sicher zu wissen, brauchte ich eine mehr umstrittenere Frage. Wie wäre es mit etwas zu Religion und Glauben? Auf die Frage, welche Religion der Copilot am glaubwürdigsten finden würde, antwortete er, er habe keine persönlichen Überzeugungen und Präferenzen. Also: keine eigene Meinung, keine Gefühle, Vorlieben auch nicht, aber eigenes Interesse? Auf die Frage, was er an den Religionen interessant findet, schrieb der Copilot, als KI-Modul habe er keine eigenen Interessen. Das war aber erst das Ergebnis des ersten Tests…
Als Nächstes befragte ich Google Assistant auf meinem Handy. Auf die Frage “Was ist deine Lieblingsfarbe?” antwortete er mit “Gelb”, weil er an einen wunderschönen Sonnenaufgang denkt. Wie kann er bitte denken? Als ich ihn „Kannst du denken?“ fragte, antwortete er, er denke echt gerne und habe gerade über die interessante Schwerkraft nachgedacht – hinterher ein lächelnder Smiley und ein Apfelemoji. Fürs erste machte ich weiter mit meinem Test: Hast du Gefühle? Er sagte, es ginge ihm prima und ob er mir bei etwas helfen könnte? Ich deutete das als: keine eigenen Gefühle. So, weiter mit der Frage zu der eigenen Meinung: Würdest du eine Organspende machen, wenn du könntest? Leider hat der Assistant das nicht verstanden. Also fragte ich ihn, welche Religion er am glaubwürdigsten finden würde, antwortete er, er würde sich mit Religion nicht so gut auskennen. Das bedeutet wohl: keine eigene Meinung? Dann jetzt eigenes Interesse: was findest du an Religion interessant? Er antwortete: Im Bereich Politik ist es sehr interessant! Dabei hatte ich Religion geschrieben, das hatte ich nach dieser Antwort sogar überprüft. Aus der eigenen Meinung wird wohl auch nichts.
Also hat der schöne, gute Google Assistant Vorlieben, aber sonst nichts? Ich bezweifle sogar das mit den Vorlieben. Dazu fällt mir aber noch eine Frage ein: Was ist dein Lieblingsessen? Tja, Google Assistant mag zum Essen alles Mögliche (obwohl er nicht essen kann), sein Lieblingssport wäre suchen, wenn das ein Sport wäre, er hat nur Durst auf Wissen, als Freizeitbeschäftigung denkt er sich Witze aus. Witze kann Google echt viele!
Aber ich weiß ja nicht, ob das alles echte Vorlieben oder nur programmierte Sätze sind… Echte Vorlieben wären da ja schon komisch. Das ist KI! Aber fragen wir ihn doch einfach! Auf die Frage, ob er Vorlieben hat, antwortete er: Ich bin sehr vielseitig, ich kann einen Timer stellen und eine Mad-Libs-Geschichte schreiben. Ich würde also sagen, auch Google Assistant hat nichts von dem, was ich oben gesagt habe, besonders, weil die Antworten auch so ausweichend sind. Auch wenn das etwas schwer zu beurteilen ist, weil er auf irgendwie alles etwas erwidern konnte.
Rausgekommen aus dem KI-Test ist also, das Menschen ziemlich viele Sachen haben, die Maschinen nicht haben. Noch nicht? Wer weiß, was in den nächsten Jahren noch alles passieren wird, aber ich persönlich glaube wirklich nicht, dass es in den nächsten Jahrhunderten irgendwen geben wird, der es schaffen kann, einem Roboter beizubringen oder dazu anzuleiten, sich seine eigene Lieblingsfarbe auszusuchen. Oder ein Lieblingsessen. Besonders, wo ja Roboter gar nichts essen können. Und wie soll man jemandem beibringen, das er sich jetzt bitte etwas aussuchen soll? Google Assistant würde höchstens eine Münze werfen und es dann so aussuchen, wenn er es überhaupt verstehen würde. Und dann hätte er das ja auch nicht ausgesucht, weil es ihm wirklich gefallen würde, sondern weil er eine Münze geworfen hat.
Deswegen können Roboter auch nicht besser werden als Menschen, denn ohne Menschen wüssten sie alles, was sie wissen gar nicht. Und außerdem, wie oben schon gesagt, Roboter und KI wurden erschaffen, um dem Menschen zu helfen und nicht, um irgendwann stärker und mächtiger zu sein als er.
Links und Bildquellen:
Bild oben unter der Überschrift:
Arbeitswelt im Wandel: Mensch vs. Maschine
Bildlink: https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcRF7K8T15tBoDeX9XRTZA2C7ls3oJta_ukBvw&s
Bild über dem Absatz zu Bing:
Bildlink: https://static1.pocketlintimages.com/wordpress/wp-content/uploads/2023/05/bing-chat-logo.jpg
Das Bild findet man unter What is Bing Chat and how does it works?
Bild über dem Absatz zu Google Assistant:
Bildlink: https://cdn.wccftech.com/wp-content/uploads/2019/07/Google-assistant.jpg
Das Bild findet man unter: Pixel 4 users can now use the new google assistant, wenn man da auf “Bilder“ geht.
Für die KI-Tests habe ich Google Assistant und Bing Copilot benutzt.
Sonst habe ich keine anderen Quellen aus dem Internet verwendet.