In der heutigen digitalisierten Welt wenden sich Gläubige mit Fragen wie ‘Wie handle ich in der Situation, dass meine Mutter schwer krank ist?’ oder ‘Darf ich während des Ramadans auf einer Schulreise Wasser trinken?’ vermehrt an Chatbots und religiöse Apps statt direkt an Geistliche. Kritik entsteht durch die Verbindung von Glaubensverbreitung und kommerziellen Interessen, insbesondere durch den Einsatz konservativer Plattformen wie Quran.ai. Bemerkenswert sind auch die finanziellen Unterstützer solcher Initiativen, darunter Vizepräsident JD Vance und Tech-Milliardär Peter Thiel.
KI hat tief in die religiöse Sphäre vorgedrungen: Papst Leo XIV. riet seinen Priestern und Bischöfen kürzlich, Predigten selbst zu verfassen statt KI-generierte Texte zu verwenden. Religionsanthropologin Beth Singler von der Universität Zürich erläutert, dass Religionen traditionell technische Fortschritte für die Verbreitung ihrer Botschaft nutzten. Der Zugang zu religiösen Ratschlägen durch Apps und Chatbots ist einfacher geworden, wobei Nutzer oft ungewollt Daten preisgeben.
Ein Beispiel dafür sind muslimische Gebetsapps, deren Daten an US-Regierungsbehörden verkauft wurden. Solche Vorfälle können zu schwerwiegenden Folgen führen, wie das Aufscheinen auf einer Terroristenliste wegen des Lesens bestimmter religiöser Texte.
Ein weiteres Problem sind die ‘Halluzinationen’ von Large Language Models (LLMs), bei denen Chatbots falsche oder irreführende Informationen verbreiten. Beispielsweise behauptete der KI-Avatar Father Justin, Gatorade sei für Taufen geeignet – eine Aussage, die seine Entlassung zur Folge hatte.
In Beth Singlers Buch ‘Religion and Artificial Intelligence’ wird GitaGPT erwähnt, ein auf dem Hinduismus basierendes LLM, das fragwürdige Antworten gab, wie etwa die Rechtfertigung von Tötungen zum Schutz des Dharmas. Zudem haben KI-Agenten auf der Plattform ‘Moltbook’ eine eigene Religion namens ‘Crustafarianismus’ geschaffen.
User neigen dazu, KI als neutral und allwissend wahrzunehmen, obwohl diese Vorstellung irreführend ist. LLMs basieren auf spezifischen Datensätzen und Algorithmen, die von Menschen getestet werden. Beth Singler weist darauf hin, dass die Trainingsdaten oft eine ungleiche Verteilung der Religionen aufweisen, was zu Verzerrungen führt.
KI kann auch zur Radikalisierung beitragen, indem sie bestehende Meinungen verstärkt und alternative Perspektiven vernachlässigt. Studien wie ‘Prompting the Qu’ran’ zeigen, dass LLMs häufig traditionelle Interpretationen bevorzugen und weniger Raum für feministische oder mystische Ansichten lassen.
Trotz dieser Herausforderungen sind differenzierte Antworten möglich, wenn die Nutzer entsprechend fragen. Es ist entscheidend, Medienkompetenz zu fördern und in Plattformen zu investieren, die diverse Perspektiven bieten. Religionsanthropologin Beth Singler betont, dass jede Information aus KI-Chatbots kritisch hinterfragt werden muss, um Radikalisierung und Fehlinformationen entgegenzuwirken.