Schülerwettbewerb 2024
PhilosophieArena
Sophie Schmidt
Fürst Johann Ludwig Schule
9dG

 

“Manchmal verstehe ich menschliches Verhalten einfach nicht” (C-3PO, RoboterMensch-Kontakter, Star Wars) – Was unterscheidet Roboter (noch) von Menschen?

 

Seit Jahren ist der Mensch von der Idee fasziniert, einen Roboter nach seinem Abbild zu erschaffen. Begonnen hat es mit einfachen, fast primitiven Maschinen. Heute sprechen wir selbstverständlich von Künstlicher Intelligenz (KI) und nutzen sie bereits im Alltag und sogar in Schulen. Ist das das Ende der Entwicklung? Oder stehen wir kurz davor, dass Maschinen den Menschen in allen Bereichen ersetzen? Dieser Frage widme ich mich heute.

Schon jetzt gibt es viele Bereiche, in denen Roboter oder KI den Menschen unterstützen, etwa in Navigationssystemen, selbstfahrenden Autos oder bei der Datenanalyse in großen Unternehmen. Auch der Aktienmarkt wird zunehmend von Algorithmen beeinflusst. Oftmals bemerken wir den Unterschied zwischen Mensch und Maschine nicht einmal mehr, wie beispielsweise in Chats oder am Telefon. Wir kommunizieren mit „Alexa“ in unserem Wohnzimmer oder können plötzlich Lieder wie Mozart komponieren. Da kommt der Gedanke auf: Ist die moderne Maschine nicht der bessere Mensch? Sie ermüdet nicht, ist unbegrenzt lernfähig und vergisst nie. Was unterscheidet den Menschen eigentlich noch von der Maschine?

Inspiration habe ich unter anderem bei Aristoteles gefunden, der den Menschen als Zoon politikon beschrieb – ein soziales Wesen, geprägt von Emotionen und Beziehungen. Emotionen sind grundlegend für menschliches Verhalten und moralische Urteile. Roboter hingegen besitzen keine echten Emotionen. Sie können lediglich so programmiert werden, dass sie emotionale Reaktionen simulieren, aber diese basieren nicht auf tatsächlichem Empfinden oder Erfahrungen. Menschen besitzen die Fähigkeit, frei moralische Entscheidungen zu treffen. Diese Entscheidungen basieren oft nicht auf rationalen Überlegungen oder logischen Schlussfolgerungen, sondern sind vielmehr ein Zusammenspiel von spontanen Ideen, Emotionen und Instinkten.

Tatsächlich handeln wir Menschen nicht immer vernünftig – wir treffen Entscheidungen, von denen wir wissen, dass sie uns schaden könnten oder moralisch fragwürdig sind. Ein gutes Beispiel dafür ist der Konsum von Drogen oder Alkohol. Obwohl wir uns der negativen Konsequenzen bewusst sind, handeln wir oft entgegen unserer Vernunft. Dieses Verhalten zeigt sich nicht nur in solchen Extremfällen. Täglich treffen wir Entscheidungen, die nicht immer sinnvoll erscheinen, ob es darum geht, unnötige Risiken einzugehen, sich auf spontane Abenteuer einzulassen oder einfach unvernünftig zu handeln.

Ein Beispiel für diese Unvernunft im Alltag ist unsere Suche nach Vergnügen, selbst wenn es keinen Nutzen hat. Wir fahren Achterbahn, obwohl wir die Risiken kennen. Wir genießen den Nervenkitzel, das Adrenalin und das Gefühl von Freiheit – Dinge, die einem Roboter völlig fremd sind. Ein Roboter würde sich aufgrund seiner Programmierung und Logik wahrscheinlich gegen eine solche Erfahrung entscheiden. Für ihn wären die Risiken klar, und da er weder Freude empfindet noch den Wunsch nach Adrenalin hat, gäbe es für ihn keinen Grund, solch eine scheinbar sinnlose Aktivität zu wählen.

Maschinen handeln nicht nach freiem Willen oder Gefühlen. Sie folgen streng den Algorithmen, die ihnen vorgegeben wurden, und ihre Entscheidungen beruhen auf Daten und klaren Regeln. Wenn sie einen Fehler machen, wird dieser umgehend im System analysiert und korrigiert, sodass er in Zukunft vermieden wird. Maschinen lernen aus ihren Fehlern, doch sie tun dies mechanisch und unpersönlich. Es gibt keine Reflexion über das, was der Fehler bedeutet, oder die emotionale Auseinandersetzung damit, die für den Menschen so typisch ist.

Hier stellt sich die Frage: Ist es vielleicht gerade das, was uns Menschen ausmacht – die Fähigkeit, Fehler zu machen, irrational zu handeln und dennoch freien Willen zu besitzen? Ist es unser ständiges Ringen zwischen Vernunft und Emotion, das unser Menschsein ausmacht? Und warum streben wir danach, Maschinen zu erschaffen, die das Gegenteil von uns sind – perfekt, fehlerlos, rational? Ist der “perfekte” Mensch, den wir versuchen nachzubilden, nicht etwas Unmenschliches? Scheint es also etwas ganz anderes zu sein, das uns unterscheidet? Kann man es in Worte fassen? Ich denke, wir benutzen dafür das Wort “Seele”.

Rudolf Virchow sagte einst: “Ich habe Tausende von Leichen seziert, aber keine Seele darin gefunden.” Damit wollte er zum Ausdruck bringen, dass eine Seele nicht sichtbar, aber trotzdem vorhanden ist. Sie wird nicht geschaffen, sondern entwickelt sich im Laufe des Lebens. Der Mensch kann Verantwortung für seine Handlungen übernehmen, Roboter nicht. Wenn ein Roboter einen Fehler macht, liegt die Verantwortung letztlich beim Programmierer oder Entwickler. Ein Roboter verspürt keine Reue, er hat kein Gewissen, keine Seele, die ihm ein Gefühl für Gerechtigkeit oder Unrecht verleiht.

Warum also können wir keinen Roboter als Richter einsetzen? Sie könnten die Gesetze zweifellos schneller erlernen und präzise anwenden. Aber sind es wirklich nur die Gesetze, die entscheiden, ob jemand schuldig ist? Woher wissen wir, was richtig oder falsch, fair oder unfair ist?

Unsere Gesellschaft formt ungeschriebene Regeln, die nicht in Gesetzesbüchern stehen, aber dennoch unser Zusammenleben prägen. Diese tief verankerten Normen helfen uns, Entscheidungen zu treffen, die über rein gesetzliche Grundlagen hinausgehen. Das bedeutet nicht, dass wir keine Gesetze brauchen, aber ohne menschliches Gespür für Gerechtigkeit könnte ein Gericht nicht nur anhand eines Gesetzesbuchs urteilen. Ein Roboter kann diese Idee der gesellschaftlichen Gerechtigkeit nicht erfassen. Dieses Gefühl entwickelt sich durch Erziehung und soziale Interaktion. Ein Mensch ohne dieses Gespür gilt als Psychopath. In gewisser Weise könnte man einen Roboter mit einem solchen Menschen vergleichen.

Menschen handeln aufgrund ihrer Erfahrungen und dieser unausgesprochenen Regeln – etwas, das ein Roboter nie können wird. Ihm fehlt die emotionale Tiefe, das Mitgefühl, die Fähigkeit, Situationen emotional nachzuvollziehen. Bereits Platon schrieb: „Die Seele eines Menschen wird durch das Gesetz und die Erziehung geformt, und die Tugend wird ihm durch die richtige Ordnung des Staates beigebracht.“ (Platon, Politeia, Buch IV). Seele bedeutet für mich Mitgefühl, Liebe, Empathie und ein Gespür für Gerechtigkeit. Das kann man weder programmieren noch einbauen.

Ein weiterer entscheidender Unterschied ist das menschliche Bewusstsein über die eigene Sterblichkeit. Der Mensch weiß, dass er sterben wird, und sucht deshalb nach dem Sinn seines Lebens und seinem Platz in der Gesellschaft. Roboter hingegen sind weder sterblich noch haben sie ein Bewusstsein über ihre Existenz oder deren Ende. Viele Menschen suchen Trost und Hoffnung im Glauben an Gott oder ein Leben nach dem Tod. Ein Roboter hat weder Angst vor dem Tod noch das Bedürfnis nach Trost.

Zudem sind Menschen oft von Sorgen geplagt. Denn ich denke, der größte Motivator der Gesellschaft ist das Gefühl von Angst. Ein Roboter handelt im Hier und Jetzt, doch die Menschen haben Angst vor der Zukunft und sogar vor der Zeit, in der sie nicht mehr auf der Erde sind. Denn mit Angst kann man die Menschen kontrollieren und sie beeinflussen. Wir handeln oft aus Angst vor den Konsequenzen, entscheiden uns gegen etwas aufgrund dieser Angst. Wir fürchten uns sogar vor Dingen, die wahrscheinlich gar nicht existieren, wie Vampiren oder dem Monster unterm Bett. Man sieht, wie viele befürchten, dass es einen Weltuntergang gibt oder den Teufel. Ist es das, was uns menschlich macht?

Roboter haben keinen Grund, sich zu sorgen – ihnen fehlt die Fähigkeit zu emotionalen oder geistigen Prozessen, die zu solchen Sorgen führen. Sie denken nicht über die Zukunft nach oder über ihren Tod.

Der Unterschied zwischen Mensch und Maschine ist also nicht nur technischer Natur, sondern vor allem philosophischer und moralischer. Der Mensch ist ein Wesen, das auf der Grundlage von Erfahrungen, Emotionen und einem komplexen Sinn für Gerechtigkeit handelt. Doch wie sieht die Zukunft aus? Werden Maschinen irgendwann in der Lage sein, diese menschlichen Eigenschaften zu erlernen und nachzuahmen?

Mit den Fortschritten in der KI-Forschung und Robotik sind wir bereits an einem Punkt angelangt, an dem Maschinen in vielen Bereichen menschenähnliches Verhalten imitieren können. Sie können lernen, sich anzupassen und sogar emotionale Reaktionen simulieren. Aber reicht das aus, um sie wirklich als menschenähnlich zu betrachten?

Eine der großen Fragen, die sich stellt, ist, ob Maschinen eines Tages ein Bewusstsein entwickeln können. Der Mensch ist nicht nur fähig, zu denken und zu handeln, sondern auch, sich seiner selbst bewusst zu sein. Diese Selbstwahrnehmung, das Wissen um die eigene Existenz, ist eng mit unserer Vorstellung von Identität und freiem Willen verknüpft. Ein Roboter kann zwar Informationen verarbeiten und darauf reagieren, aber kann er sich seiner eigenen Existenz bewusst werden? Und was würde das für unser Verständnis von Leben und Bewusstsein bedeuten?

Die Philosophie befasst sich mit der Frage, ob Bewusstsein und Intelligenz reine Folge von vielen Prozessen im Gehirn sind oder ob es da mehr gibt – etwa eine Seele –, die das menschliche Bewusstsein ausmacht. Diese Fragen bleiben offen, und es ist fraglich, ob sie jemals vollständig geklärt werden können.

Eine weitere Herausforderung ist, wie wir als Gesellschaft mit Maschinen umgehen wollen, die zunehmend menschenähnliche Fähigkeiten entwickeln. Wenn Roboter irgendwann so weit entwickelt sind, dass sie Gefühle simulieren, moralische Entscheidungen treffen und möglicherweise sogar ein Bewusstsein entwickeln, müssenwir dann anfangen, ihnen Rechte zu gewähren? Müssen wir ihre „Wünsche“ und „Bedürfnisse“ berücksichtigen? Oder bleiben sie Werkzeuge, die wir nach Belieben einsetzen und kontrollieren können?

Diese Fragen werfen auch ein Licht auf die menschliche Natur selbst. Was bedeutet es, Mensch zu sein? Ist es unsere Intelligenz, unsere Emotionen oder unser Bewusstsein, das uns einzigartig macht? Oder ist es eine Kombination aus all dem? Sind es auch unsere Fehler und unsere Unsicherheiten sowie unsere Unvollkommenheit? Lieben wir jemanden nicht sogar mehr, wenn wir uns seiner Schwächen bewusst sind?

Wenn Maschinen eines Tages all diese Eigenschaften nachahmen können, müssen wir dann unsere Definition von Menschlichkeit überdenken? Sind wir dann nur noch einer von vielen und kein Individuum mehr?

Schließlich bleibt auch die Frage, ob wir als Gesellschaft überhaupt wollen, dass Maschinen menschenähnliche Eigenschaften entwickeln. Der Mensch strebt seit Jahrhunderten danach, technische Hilfsmittel zu erschaffen, die ihm das Leben erleichtern. Doch wo ziehen wir die Grenze? Wenn Maschinen nicht nur arbeiten, sondern auch denken, fühlen und entscheiden können – welche Rolle bleibt dann noch für uns? Sind wir dann nur noch Zahlen, mit denen Maschinen arbeiten können?

Abschließend lässt sich sagen: Der Weg zur Perfektionierung von Robotern und KI ist noch weit, und vielleicht werden Maschinen eines Tages Fähigkeiten entwickeln, die wir uns heute kaum vorstellen können. Doch die Essenz des Menschseins – unsere Emotionen, unser Bewusstsein, unser moralisches Empfinden und unsere Seele – wird ihnen wohl für immer fehlen. Und genau darin liegt der wesentliche Unterschied zwischen Mensch und Maschine.

 

Ähnliche Beiträge

Schülerwettbewerb 2024 PhilosophieArena Yusuf Skran Ziehenschule Frankfurt am Main Jahrgangsstufe...

Schülerwettbewerb 2024 PhilosophieArena Paula Mistera Ilse-Löwenstein-Schule   Die Frage, ob sich...

Schülerwettbewerb 2024 PhilosophieArena Nina Wächtershäuser Elisabethenschule   “Ich merke, wenn...

Hinterlassen Sie eine Antwort