Badstraße 27 - 75365 Calw - Telefon 07051 - 12656 Home Sitemap

Auf die Frage nach Gott findet „Künstliche Intelligenz“ keine Antwort
Professor Lukas Ohly sprach in Höfen über das Verhältnis von Mensch und Maschinen

„Eigentlich ist es eine schöne Vorstellung im Alter. Ich lasse mir ein ‚autonomes Auto‘ kommen und erledige damit meine Einkäufe ohne jedes Risiko.“ Diese Meinung eines Zuhörers bei einer Veranstaltung der Evangelischen Erwachsenenbildung in Höfen an der Enz stieß bei vielen Anwesenden durchaus auf Zustimmung. Professor Lukas Ohly von der Goethe-Universität in Frankfurt ist einer der wenigen Pfarrer, der sich aktiv im Dialog von Theologie und Informationstechnik beteiligen. Den neuen Möglichkeiten steht er dabei durchaus offen gegenüber: „Sie können ein Segen sein!“ So können Sprachassistenten wie „Siri“ und „Alexa“ in verblüffend schneller Zeit wertvolle Informationen liefern.

Sie sind wie Pflegeroboter ein Gegenüber des Menschen. Man kann sich direkt in sie verlieben, wie das Beispiel des „Tamagotchi“ zeigt, das 1997 in Deutschland in den Handel kam. Zur Erinnerung: Das Tamagotchi stellt ein virtuelles Küken dar, um das man sich vom Zeitpunkt des Schlüpfens an wie um ein echtes Haustier kümmern muss. Es hat Bedürfnisse wie schlafen, essen, trinken, Zuneigung und entwickelt auch eine eigene Persönlichkeit.

Tut es das wirklich? Kann eine Maschine eine Seele haben und Subjekt sein? Lukas Ohly zieht eine klare Grenze zwischen Mensch und Maschine. Ein Mensch kann Scham empfinden, eine Maschine speist sich aus Algorithmen und Erfahrungswerten. Dennoch gelingt die Kommunikation mit den „Humanoiden“ leichter. Sie widersprechen nicht und tun in der Regel, was man ihnen sagt und von ihnen erwartet. Aber sie täuschen auch. Ein Sprachassistent wird stets ausweichend antworten. Auf die Frage „Was gibt es heute zu essen?“ reagiert Systeme der „Künstlichen Intelligenz“ bestenfalls mit der Aussage „Es gab schon länger nicht mehr Spaghetti.“ Siris Antwort auf die Frage „Gibt es Gott“ lautet entweder „Ich habe dich nicht verstanden. Versuch es noch einmal.“ Oder „Das frage ich mich auch oft.“

Schwierig wird es, wenn Menschen den Maschinen Entscheidungen überlassen. Eine echte Dilemma-Situation stellt sich beim autonomen Fahren: Eine Mutter mit Kleinkind überquert plötzlich die Straße, das autonom fahrende Auto kann nach rechts ausweichen und einen älteren Menschen überfahren oder es rast links in eine Betonwand mit schweren Folgen für den Insassen. Lukas Ohly: „Künstliche Intelligenz darf über rein technische Prozesse entscheiden, die keine Auswirkungen auf den Menschen haben. Auch lebensrettende Maßnahmen sind wünschenswert, sofern sie die Autonomie des Menschen nicht oder nur ausnahmsweise antasten. Künstliche Intelligenz darf aber in keinem Fall Urteile über lebenswertes bzw. lebensunwertes Leben treffen. Der Entscheider muss ein Wesen haben und somit eine persönliche Verantwortung übernehmen.“

Für viele Anwesende bot der Vortrag interessante Einblicke in Zukunftstechnologien, die – so der Eindruck - mehr auf den Wirtschaftsseiten der Zeitungen als in öffentlichen Veranstaltungen diskutiert werden.

 

 

 
CMS von artmedic webdesign