“Künstliche Intelligenz erfüllt die Kriterien eines religiösen Systems”, erklärt Professorin Birte Platow. Beim Medienkongress spricht sie über die ethischen Grenzen der KI. Ein Thema, das im aktuellen Mediendiskurs nur selten beleuchtet wird.

ethische grenzen Ki
Foto: Shutterstock

Wie lange schreiben wir noch selbst?

Seit einigen Monaten arbeite ich als Journalist mit der Premium-Variante von ChatGPT. Ich nutze die künstliche Intelligenz, um beispielsweise für Artikel, die ich bereits geschrieben habe, eine bessere Überschrift zu finden.

Dazu lade ich den fertigen Text in den Chatbot und lasse mir 10 Überschriften generieren. Meist bringt mich die KI auf drei Titelideen, die ich deutlich besser als meine erste eigene Variante finde. Dann fällt es mir schwer aus drei guten Headlines meine Auswahl zu treffen.

Dieses Praxisbeispiel illustriert sehr gut, wie künstliche Intelligenz im beruflichen Kontext Einzug hält. Birte Platow stellt auf dem Medienkongress die These auf, dass wir vermutlich in 50 Jahren beruflich nicht mehr selbst schreiben werden.

Ethische Transparenz

Schon heute ist bei ChatGPT und anderen KI-Angeboten nicht zu erkennen, aus welchen Quellen sich die Inhalte speisen. “Das ist eine wilde Mischung aus allem”, diagnostiziert Platow, die an der TU in Dresden eine Professur hat.

Für mich als Journalist ist die Frage der Quelle ganz zentral, wenn ich für meine Texte recherchiere. Stammen die Angebote von einem Menschen oder einer Künstlichen Intelligenz? Dabei geht es auch um das Urheberrecht, das ich als Autor für meine eigenen Texte besitze, aber auch das Recht von anderen Personen und Medienhäusern an ihren Texten.

Wenn ich die Quelle nicht kenne, kann ich oft nicht nachprüfen, ob der Inhalt stimmt. Sind das belegbare Fakten? Aussagen von Menschen oder nur eine künstliche Mischung von Vorurteilen?

Halluzinationen von KI

Professorin Birte Platow spricht von “Halluzinationen von KI“. Gemeint ist damit ein Text, der zwar überzeugend klingt, aber objektiv nicht stimmt. Damit bin ich bei einer ethischen Kernfrage: Seit 26 Jahren gibt es die Suchmaschine von google.

Die meisten Menschen haben sich daran gewöhnt, ihre Fragen an die Suchmaschine zu stellen: Ob Krankheitssymptome oder berufliche Fachfragen: Dr. google ist für etliche Nutzer zur ersten Quelle geworden.

Mit Siri und Alexa haben wir uns an Sprachsysteme gewöhnt, die auf Zuruf Auskunft geben: Wetterprognosen erstellen, Befehle ausführen und in den Alltag eingreifen.

Bin ich zahlengläubig?

Birte Platow fragt zugespitzt: Sind wir dadurch zahlengläubig geworden? Vertrauen wir KI mehr als Menschen? Diese Schlüsselfrage ist umso bedeutender, je mehr die Künstliche Intelligenz in der Medizin genutzt wird.

Ich bin sicher, dass jeder Arzt Beispiele erzählen kann von Patienten, die mit einer google-Scheindiagnose in die Praxis kommen. Für Hypochonder ist google ein Vorhof zur Hölle der eingebildeten Ängste.

Doch nun zur neuen Dimension: Was mache ich als Patient mit einem Muttermal, wenn der Arzt KI zur Erkennung einsetzt? Vertraue ich seiner langjährigen Berufserfahrung oder dem KI-System?

Die Dresdner Professorin berichtet von Menschen, die sich Künstlicher Intelligenz unterlegen fühlen: Die normative Kraft von Zahlen und Fakten wird in den kommenden Jahren noch zu etlichen Konflikten führen.

Deep Learning

Welche Folgen hat es, wenn ich dem Urteil des Arztes vertraue und gegen den Rat der KI entscheide? Was passiert, wenn aufgrund meiner vielleicht falschen Entscheidung eines Tages ein Tumor diagnostiziert wird? Zahlt dann die Krankenkasse, wenn ich mich gegen die Empfehlungen einer Künstlichen Intelligenz entschieden habe?

Birte Platow berichtet von “Deep Learning” der KI: Sie registriert, ob ich ihre Empfehlungen höre. Möglicherweise wird sie eines Tages immer mehr in meinen Alltag eingreifen, meine Entscheidungen bestimmen. Wird KI dann zum Motor meines Lebens?

Ich finde dies eine sehr spannende Frage: Zumal KI mittlerweile durch Armbänder und Ringe, die 24 Stunden getragen werden, unsere körperlichen Daten permanent analysiert.

Wird KI zum Segen oder Fluch?

Eine Freundin erzählte mir letzte Woche von ihren Herzrhythmusstörungen. Obwohl sie kein Technik-Nerd ist, hat sie sich jetzt für einen Gesundheitstracker entschieden. Ein technisches Hilfsmittel, dass Teil ihres Alltags wird.

Apple hat bereits angekündigt, dass KI ab Herbst in jedem neuen iPhone integriert wird. Facebook nutzt ab Sommer alle Fotos und Texte der Nutzer, um die eigene künstliche Intelligenz zu trainieren.

Unsere privaten Erlebnisse, unsere familiären Ereignisse werden zum Datenfutter. Ist das Segen oder Fluch? Ich komme zurück zum Eingangsbeispiel von Birte Platow. Sie fragt konkret: “Welche religiösen Gefühle leiten uns als Nutzer?”

Vertrauen wir den Versprechen der Techniker, die sich als “Evangelisten” ihrer Tools positionieren und KI als Segen anpreisen? Worte wie Erkenntnis und Erlösung, die in Verbindung zu KI genutzt werden, sind eindeutig christliches Vokabular.

Welches Menschenbild habe ich?

Als Theologin stellte Birte Platow auch die Frage, ob sich ein Mensch nach jüdisch-christlichem Verständnis als “Gottes Ebenbild” versteht? Die Selbstwahrnehmung hat sehr viel mit meiner eigenen Identität zu tun.

Für den Techniker ist die Frage nach dem Menschenbild sekundär: KI braucht dies scheinbar nicht. Ob Informationen gut oder schlecht sind, entscheidet der Anwender.

Doch wenn KI alle Kriterien eines “religiösen” Systems erfüllt, wie Platow formuliert, dürfen wir uns um die ethischen Fragen nicht drücken. Sie müssen im politischen und gesellschaftlichen Diskurs gestellt werden, um jeden Nutzer über die Risiken und Nebenwirkungen von KI aufzuklären.

Die göttliche Inspiration eines Künstlers

Zum Schluss gibt Birte Platow noch eine wichtige Erkenntnis mit: “Die göttliche Inspiration eines Künstlers fehlt der KI”. Das entspannt mich als Autor und Nutzer.

Das Glück, dass ich beim Schreiben eigener Texte empfinde, kann durch ChatGPT nicht ersetzt werden. Selbst Schöpfer zu sein, ein Werk zu schaffen, ist ein menschliches Grundbedürfnis, das wir nicht delegieren sollten.

Auch die Einsamkeit und innere Leere, die viele Jugendliche empfinden, wenn sie täglich vier Stunden online sind, wird KI nicht stillen. Ich vermute, dass die Erlösung die viele Nutzer von KI erwarten, sich als Sackgasse im zwischenmenschlichen Umgang erweisen wird.

Erst eine persönliche Umkehr – eine Abkehr von zuviel künstlicher Intelligenz – wird wie bei der Ernährung zur Gesundung führen.