Bergische Morgenpost Wermelskirchen/Hückeswagen/Radevormwald
Es droht der Eliza-Effekt
Algorithmen erzeugen Sprache – faszinierend und beunruhigend.
Die vergangenen Wochen haben einen Einblick in die aktuellen Fähigkeiten von Künstlicher Intelligenz (KI) gegeben, der sowohl faszinierend als auch beunruhigend ist. 2022 wurden leistungsstarke Algorithmen eingeführt, die Bilder und Texte auf Anfrage erstellen. Insbesondere die aktuell noch kostenlose Chat GPT hat den Wandel greifbar gemacht. Modelle wie diese bilden die Grundlage für fast alle KI-basierten Systeme. Unternehmen können die Basismodelle nutzen und anpassen, um so Anwendungen in Bereichen wie Vertrieb, Kundenservice, Design, Spiele, Bildung und Recht zu speisen. Die Basismodelle können zwar zur Entwicklung neuartiger Anwendungen verwendet werden, sie können aber auch ein wirksames Mittel
sein, um Fehlinformationen zu verbreiten, hochwertigen Spam zu automatisieren und urheberrechtlich geschützte Inhalte zu plagiieren.
Die Modelle enthalten nachweislich Vorurteile und erzeugen Stereotypen. Besorgniserregend ist, dass potenzielle Fehler auf alle nachfolgenden Modelle übertragen werden, was zu weit verbreiteten Problemen führen kann, wenn sie nicht bewusst gesteuert werden. Die Regulierungsbehörden müssen sich jedoch fragen: Verstehen wir genug, um beurteilen zu können, wo die Modelle angewendet werden sollten und wo sie verboten werden müssen? Immer wieder wird über „KI-Anpassung“gesprochen – also Maschinen dazu zu bringen, sich ethisch zu verhalten –, aber es gibt keinen überzeugenden Weg, dies zu tun.
In der Zwischenzeit droht der Eliza-Effekt, bei dem Menschen unbedachtes Geplapper von Maschinen mit dem eines Menschen verwechseln. Insbesondere bei Linkedin experimentieren faule Nutzer bereits mit Chat GPT. Für mich ist das Wichtigste Transparenz: die klare Kennzeichnung von KI-generierten Inhalten. 2023 werden solche Systeme weit verbreitet sein. Früher oder später werden sie verzerrte Ergebnisse erzeugen mit fatalen Folgen. Daher meine düstere Vorhersage: In diesem Jahr wird es den ersten Kriminalfall geben, der öffentlich mit Künstlicher Intelligenz in Verbindung gebracht wird.
Unsere Autorin ist Start-up-Gründerin und Sprecherin der Initiative NRWalley. Sie wechselt sich hier mit Blogger Richard Gutjahr ab.