Schülerwettbewerb 2024
PhilosophieArena
Ali Al-Saai
Nikolaus-August-Otto-Schule
Einführungsphase (Eb)
Menschlichkeit und Moral können in einer Maschine mangelhaft programmiert werden. Sie ist eine exekutive Einheit, die auf gespeicherte Daten zugreift.
Maschinen können Menschlichkeit lediglich imitieren, da sie auf Daten und Algorithmen basieren, die festlegen, welches Verhalten als moralisch gilt. Das Problem ist, dass ihnen spontane Emotionen, Intuition, Autonomie und ein authentisches Gewissen fehlen, welche als Grundlage jeder menschlichen Entscheidung gelten. Menschliches Verhalten wird nicht durch feste Regeln bestimmt, sondern entsteht aus einer komplexen Mischung von Erfahrungen, Gefühlen und moralischen Überzeugungen. Während Maschinen rein statistisch Muster erkennen und speichern können, was als “moralisch” erscheint. Sie handeln nicht aus echtem Verständnis, sondern folgen programmierten Anweisungen. Menschlichkeit bedeutet mehr als rationales Verhalten. Menschen sind in der Lage, Logik und Verstand beiseitezulegen, denn auch das bewusste Nichtbefolgen dessen, was als “moralisches” Handeln gilt, gehört zur Menschlichkeit. Maschinen hingegen funktionieren blind und rein systematisch, indem sie einer Situation nur nach den in ihren gespeicherten Daten hinterlegten Regeln folgen. Das Problem entsteht, wenn sie entscheiden müssen, wann menschlich und wann moralisch zu handeln ist. Die Maschine ist nicht in der Lage, wie wir Menschen zwei entscheidende Quellen für ihr Handeln gleichzeitig zu besitzen, die jeweils unterschiedlich auf ihr Verhalten wirken. Letztendlich bleibt sie nur ein System, das weder etwas zu sagen noch zu fühlen, zu denken oder zu tun hat. Man drückt einen Knopf, das Licht geht an. Nichts Persönliches, nichts Menschliches. Der Lampe können keine menschlichen Eigenschaften zugeschrieben werden, sie entscheidet nicht, ob sie leuchten will oder nicht. Wenn ich die Lampe jedoch so gestalte, dass sie beim Einschalten einen Ton von sich gibt, etwas, das ein Mensch sagen würde, und der Ton sich je nach Knopfdruck ändert. Würde das der Lampe Menschlichkeit verleihen?
Die Tatsache, dass Moral und Menschlichkeit koexistieren und wir Menschen die Fähigkeit besitzen, zwischen den beiden zu unterscheiden und zu entscheiden, wann wir was befolgen, gehört ebenfalls zur Menschlichkeit dazu. Weil menschliches Handeln manchmal der Moral Ethik widerspricht, ist es nicht möglich, beides in einem System zu programmieren. Auch wenn man der Maschine nur Moral programmieren möchte, wird sich die Quelle des Handelns nach Moral von den Menschen abhängen und unterscheiden, denn der Unterschied zwischen Menschen und Robotern ist unter anderem auch das Vorhandensein eines Gewissens.
Laut Immanuel Kant ist es unser Gewissen, mit dem wir Menschen geboren sind, das, was uns sagt, welches Verhalten richtig und welches falsch ist und somit ist das Gewissen die angeborene Ursprungsquelle, welche den Menschen die Fähigkeit gibt, Moral zu erkennen.
“Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.”
Dieses Zitat bedeutet, dass wir nur so handeln sollten, wie wir es uns auch für alle anderen wünschen würden. Immanuel Kant sah das Gewissen als einen inneren Richter, der unsere Handlungen nach moralischen Maßstäben beurteilt. Er glaubte, dass jeder Mensch einen angeborenen Sinn für das Richtige und Falsche hat, der uns unabhängig von äußeren Einflüssen leitet. Dieses Gewissen ist für Kant ein Ausdruck unserer Vernunft und macht uns bewusst, dass wir für unser Handeln verantwortlich sind.
Den angeborenen Sinn, der uns unabhängig von äußeren Einflüssen leitet, fehlt der Maschine, was sie abhängig davon macht, wie wir Menschen programmieren. Man kann Maschinen mangelhafte Menschlichkeit beibringen, und das gelingt auch nur dann, wenn man dafür Moral aufopfert. Man kann der Maschine Moral beibringen und das gelingt lediglich durch das Ersetzen von dem, was wir als einen angeborenen Sinn, genannt “Gewissen”, besitzen, mit äußerlich abhängig definierten Werte. In der Funktionsweise von Maschinen gibt es nichts Spontanes.
Wenn ein Roboter schreckliche Taten verursacht, kann man es nicht persönlich nehmen, noch sollte man irgendwelche Gefühle gegenüber diesem Roboter haben. Wie könnte man das? Es wäre absurd, Gefühle gegenüber einer Maschine zu haben, die nicht denkt, fühlt, entscheidet oder ein eigenes Dasein besitzt. Die Maschine ist lediglich die Reflexion menschlicher Wahrheit, nach deren Prinzipien die Maschine handelt. Persönlich nehme ich es von den Menschen übel, die sich ihrer Taten bewusst sind und über ein Gewissen verfügen. Doch trotz allem sind sie (Die Menschen) fähig, unaussprechliche Taten zu begehen. Und davor ist es vernünftig, Angst zu haben. Das bedeutet für mich, I. Kant zustimmend, dass der Mensch allein für seinen Handel verantwortlich ist. Ich kann das Verhalten von den Menschen persönlich nehmen. Von einer programmierten Maschine jedoch etwas persönlich zu nehmen, bedeutet entweder, man nimmt es in der Wirklichkeit indirekt von den Menschen übel, oder man ist naiv.
Kann man Menschlichkeit und Moral programmieren? – Nur mangelhaft.
Erklärung:
“Man drückt einen Knopf, das Licht geht an. Nichts Persönliches, nichts Menschliches. Der Lampe können keine menschlichen Eigenschaften zugeschrieben werden, sie entscheidet nicht, ob sie leuchten will oder nicht. Wenn ich die Lampe jedoch so gestalte, dass sie beim Einschalten einen Ton von sich gibt, etwas, das ein Mensch sagen würde, und der Ton sich je nach Knopfdruck ändert. Würde das der Lampe Menschlichkeit verleihen?”