Der Online-Aufruf „Quit ChatGPT“ zur Abkehr vom Chatbot von OpenAI findet Unterstützung bei einem Luzerner Universitätsprofessor. Peter G. Kirchschläger, Theologe und Ethiker an der Universität Luzern, hält heutige KI-Modelle in ihrer aktuellen Form für ethisch problematisch. In einem Gespräch mit „annabelle“ betont er, dass diese Systeme nicht verantwortungsvoll genutzt werden können und spricht lieber von ‚datenbasierten Systemen‘. Seine Forschungen konzentrieren sich auf Ethik, Menschenrechte und Digitalisierung.
Die Bewegung „Quit ChatGPT“ richtet ihre Kritik unter anderem gegen finanzielle Verbindungen zwischen OpenAI und Donald Trumps politischem Lager sowie die Kooperation mit dem US-Verteidigungsministerium. OpenAI erläutert, dass der bestehende Regierungsvertrag administrative Prozesse, Gesundheitsversorgung für Militärangehörige, Beschaffung und Cyberabwehr umfasse und explizit inländische Überwachung ausschließe.
Kirchschläger verweist zudem auf die Rechtsstreitereien von ‚Anthropic‘, der Firma hinter dem Chatbot „Claude“, mit dem Pentagon. Diese Auseinandersetzungen zeigen seiner Ansicht nach, dass solche grundsätzlichen Fragen nicht durch einzelne Firmen oder Manager entschieden werden sollten, sondern in den politischen und rechtlichen Bereich gehören.
Das von OpenAI trainierte Modell steht unter anderem aufgrund des Einsatzes urheberrechtlich geschützten Materials im Fokus rechtlicher Auseinandersetzungen. Beispielsweise hat die „New York Times“ Klage gegen das Unternehmen eingereicht, was Kirchschläger als Indiz für ethische Probleme bei der Entstehung solcher KI-Modelle ansieht.
Kirchschlägers Kritik erstreckt sich über OpenAI hinaus auf die Geschäftsmodelle großer KI-Anbieter. Er hebt dabei Bedenken in Bezug auf den Umgang mit Daten, Manipulationsrisiken, Menschenrechtsfragen und den Ressourcenverbrauch hervor. Zudem merkt er an, dass diese Systeme nicht nach einem Wahrheitsbegriff operieren, sondern lediglich Wahrscheinlichkeitserwägungen treffen.
Der Professor rät Nutzern dazu, aktuell verfügbare KI-Modelle zurückzuhalten und plädiert für eine globale, menschenrechtsbasierte Regulierung sowie die Einrichtung einer internationalen Aufsichtsbehörde bei der UNO.
Verwendete Quellen:
Interview in der „annabelle“
Website von OpenAI
Website von Quit ChatGPT