Silostrukturen bremsen KI-Pläne
Intelligente Systeme brauchen Kontextwissen.
Wenn sich Systeme der künstlichen Intelligenz (KI) durchsetzen sollen, müssen Unternehmen langjährig antrainierte Verhaltensmuster durchbrechen. An die Stelle von hierarchischen Strukturen und geschlossenen Systemen müssen Offenheit und ethisch begründete, ganzheitliche Verantwortung treten.
Die Führungskraft entscheidet und trägt dafür die Verantwortung – dieses ungeschriebene Gesetz gilt immer noch in den meisten Unternehmen. Im Umkehrschluss bedeutet das: Untergebene entscheiden nicht und tragen keine Verantwortung – höchstens in einem vorgegebenen Rahmen. Mit Beginn der Industrialisierung kam ein weiterer „Entscheider“hinzu: die Maschine. Wer sie zu seinem Vorteil nutzen will, muss sich auf sie einlassen, sonst funktioniert sie nicht.
Mit der Digitalisierung und, mehr noch, dem Aufkommen von KI verändert sich dieses Muster nachhaltig. KI-getriebene Systeme, die sich an den Bedürfnissen und Wünschen der Menschen orientieren, übernehmen Entscheidungen. Algorithmen analysieren diese Bedürfnisse und Wünsche. Sie ziehen Schlüsse daraus und fällen darauf basierend Entscheidungen. Auf diesem mathematischen Geschehen gründen die Erfolge der Digitalgiganten Alibaba, Amazon oder Google. Je genauer sie die von Anwendern und Kunden oft selbst nicht erkannten Wünsche mittels KI identifizieren und bedienen, desto erfolgreicher ist ihr Geschäftsmodell.
Die Entscheidungshoheit verschiebt sich
Noch treffen Menschen politische, wirtschaftliche und gesellschaftliche Entscheidungen. Doch sie sind dabei nicht mehr allein: Schon heute errechnen Anwendungen über weite Strecken, wie etwa die Börsen auf Ereignisse wie Corona, eine Staatspleite oder sinkende Ölpreise reagieren. Und KI-Systeme, die Personalleiter bei der Auswahl von Bewerbern unterstützen oder Ärzten dabei helfen, Krankheitsbilder zu analysieren, sind im Einsatz. Sie arbeiten schneller, genauer und zuverlässiger als der Mensch.
Man muss kein Prophet sein, um festzustellen: KI wird in immer mehr Bereiche unseres Alltags Einzug halten. Damit verschiebt sich die Ent
scheidungshoheit mehr und mehr vom Menschen hin zum Algorithmus. Damit aber Algorithmen in unserem Sinne entscheiden, müssen wir uns Klarheit über unsere Werte und ethischen Maßstäbe verschaffen. Wie soll unsere Zukunft aussehen? Wie wollen wir als Menschen leben? Damit KI-basierte Systeme unser Leben positiv beeinflussen, müssen sie dem Menschen dienen und dem Gemeinwohl zuträglich sein. Und das muss in den Codes stehen. KI-Systeme sind wie Kinder. Sie übernehmen die Verhaltens- und Denkmuster ihrer Eltern, in diesem Fall der Programmierer oder derer, die die Anforderungen für KI-Systeme formulieren. Algorithmen interpretieren die auf sie einströmenden Daten anhand vorgegebener Muster. Daten und Code sind die Basis für ihr (Lern-)Verhalten.
Wird ein KI-System nur nach Kriterien der schieren Machbarkeit, der höchstmöglichen Effizienz oder Profitabilität programmiert, wird es jede neue Information nur in diesen Kontext einordnen und Entscheidungen daran ausrichten. Wäre beispielsweise die dem Dieselskandal zugrunde liegende Software nicht nur mit technischen Informationen gefüttert worden, sondern auch mit juristischen oder gar ethischen Verhaltensregeln, wären die Ergebnisse wahrscheinlich anders ausgefallen. Der Dieselskandal mit all seinen Folgen wäre womöglich nie entstanden.
Ethische Fragen werden wichtig
In Zukunft kommen wir nicht umhin, Algorithmen mit Elementen menschlicher Entscheidungsfindung auszustatten. Und dazu gehören selbstverständlich auch ethisch-moralische Fragen. Nicht von ungefähr hat das Medialab des Massachusetts Institute of Technology (MIT) seine „Moral Machine“entwickelt und online gestellt. Dort geht es etwa um die Frage, ob ein führerloses Auto im Extremfall lieber das Leben von Kindern oder von Erwachsenen riskieren soll oder ob im Zweifel Passanten oder Beifahrer schützenswerter sind.
Zur Erklärung heißt es dazu: „Von selbstfahrenden Autos auf öffentlichen Straßen bis hin zu autonom fliegenden, wiederverwendbaren Raketen, die auf ebenfalls selbstfahrenden Schiffen landen, unterstützt oder übernimmt maschinelle Intelligenz immer komplexere menschliche Aktivitäten. Die wachsende Autonomie, die der maschinellen Intelligenz dabei zugestanden wird, kann zu Situationen führen, in denen solche Systeme autonom Entscheidungen über Leib und Leben von Menschen treffen müssen. Dies erfordert ein klareres Verständnis davon, wie Menschen solche Entscheidungen treffen würden, und ein ebenso klares Verständnis davon, wie Menschen die maschinelle Intelligenz wahrnehmen, die solche Entscheidungen trifft.“
Mit ihrer Webseite zur Moral Machine wollen die Wissenschaftler Menschen in aller Welt einladen, in die Diskussion über solche Themen einzusteigen. Zum einen geht es darum, ein Meinungsbild darüber einzuholen, wie Maschinen moralische Dilemmata lösen sollten. Zum anderen soll die Plattform ein Forum bieten, in dem die Öffentlichkeit ethisch mehrdeutige Szenarien diskutieren kann.
Kontextwissen ist entscheidend
Heute verfügt der Mensch über zwei Eigenschaften, die ihn der Maschine überlegen machen: Kontextwissen und Bewusstsein. Beides ist hochkomplex und vielschichtig. Dennoch ist es wahrscheinlich, dass sich KI-Systeme im Laufe der nächsten Jahre dank virtueller Lernerfahrungen und steigender Rechenleistung relativ viel Kontextwissen aneignen. Das ist eine zwingende Voraussetzung für die Leistungsfähigkeit eines Algorithmus: Je mehr Kontextwissen in seine Entscheidungen einfließt, desto fehlertoleranter ist er. Entscheidend dafür sind die Art und Menge von Daten, die ein solches System zur Verfügung hat und verarbeiten kann.
Spätestens hier zeigt sich aber, dass unser eingeübtes Denken in hierarchischen Strukturen und geschlossenen Bereichen (Silos) nicht zu dem Prinzip passt, nach dem künstliche Intelligenz organisiert ist: Menschen in herkömmlichen Strukturen delegieren Entscheidungen und Verantwortung einschließlich ethischer Fragestellungen nach oben. Dass jedoch in einer zunehmend vernetzten Welt allein der Vorgesetzte „durchblickt“, entpuppt sich immer häufiger als Fehleinschätzung.
Ein großes Problem stellt das Abteilungsoder Silodenken dar. Es macht Information zu Eigentum, das verborgen und geschützt wird – und nicht etwa geteilt. Wissen half bisher, die eigene Position und Macht abzusichern. Doch das aufkommende KI-Zeitalter erfordert kooperatives Verhalten. Viele Projekte, nicht nur im Bereich Big Data und KI, leiden unter der Blockadehaltung von Mitarbeitern: Sie macht das Beschaffen der erforderlichen Daten mühselig und bisweilen unmöglich. Die Folge: Das KI-System kann sein volles Potenzial nicht ausschöpfen, weil ihm das notwendige Kontextwissen fehlt. Nur damit wäre es in der Lage, die hinter Einzelphänomenen liegenden Muster zu erkennen und adäquat zu entscheiden.
Noch deutlicher wird das Problem, wenn es um die zweite Eigenschaft des Menschen neben dem Kontextwissen geht, das Bewusstsein. Bislang ist wissenschaftlich weder klar definiert, was Bewusstsein eigentlich ist, noch wie es entsteht und ob beziehungsweise wie es mit dem Denken beziehungsweise mit der Intelligenz zusammenhängt.
Wie auch immer: Um die von uns geschaffenen Technologien der Digitalisierung und künstlichen Intelligenz im Sinne des Menschen zu steuern, müsste sich menschliches Bewusstsein in den Algorithmen manifestieren. Wir werden uns also bewusst machen müssen, wer wir Menschen sind, und was ausschlaggebend dafür ist, dass wir uns wie Menschen fühlen. Was wir deshalb brauchen, ist eine offene, an tatsächlich gelebten Werten orientierte Kultur, eine transparente Kommunikationskultur, die sich einzig an der Suche nach der Wahrheit beziehungsweise dem für die Allgemeinheit bestmöglichen Ergebnis orientiert.
Kooperation und Kreativität
Dies entspricht allerdings nicht unseren antrainierten Denk- und Verhaltensmustern. Also brauchen wir neue Organisationsstrukturen, die uns helfen, unseren „Mindset“entsprechend zu ändern. Das beginnt damit, dass sich Führungskräfte nicht abschotten, sondern als gleichberechtigte Partner in Projekte und Diskussionen einbringen. An die Stelle getrennter Abteilungen und Bereiche sollten – wo immer möglich – Strukturen treten, die alle an einem Projekt Beteiligten über Abteilungsgrenzen hinweg zusammenführen.
Je stärker die Projektteams durchmischt sind mit Vertretern unterschiedlicher Disziplinen, Bereiche und Verantwortlichkeiten, aber auch was Alter und Dauer der Betriebszugehörigkeit angeht, desto größer der Effekt für Kreativität und ganzheitliches Denken. Damit lösen sich nicht nur die Silostrukturen auf. Es entstehen auch neue Ideen, die nur durch interdisziplinäre Zusammenarbeit möglich werden. Wenn etwa Mitarbeiter aus dem Produktmanagement gemeinsam mit IT-Experten, Finanzverantwortlichen und Marketingleuten ein Projekt umsetzen, treffen sehr unterschiedliche Zielsetzungen aufeinander. Interdisziplinäre Teams, die offen kommunizieren, entwickeln nicht nur mehr neue Ideen – sie definieren auch die Anforderungen ganzheitlicher. So schaffen sie die Basis für bessere KI-Systeme.
Mitarbeiter aus allen Unternehmensbereichen erfahren, wie Daten ungeahnte Einblicke und Zusammenhänge eröffnen und zu ganz neuen Ideen führen können. Je stärker jeder Einzelne aktiv an diesen Prozessen beteiligt ist, desto eher wird er die Verantwortung annehmen, und desto schneller und gründlicher verändern sich Denken und Handeln.
Als sicher darf gelten: Die Entwickler von KISystemen werden sich in Zukunft immer häufiger mit Fragen nach ethisch fundierten Entscheidungen konfrontiert sehen, die erfahrene Softwarearchitekten in programmierbare Regeln übersetzen müssen. Die gesellschaftliche Akzeptanz steht und fällt mit den Antworten.
Dieser Anforderung lässt sich nur durch eine offene transparente Kommunikationskultur begegnen. Denn durch Transparenz wird der einzelne Mensch als soziales Wesen angesprochen. Letztlich setzen wir der künstlichen Intelligenz unsere kollektive Intelligenz entgegen, die hierzu einen universellen Führungsanspruch formulieren muss. Wir müssen den KI-Systemen beibringen, dass sie dem WIR dienen und nicht den Vorteilen einzelner Personen.
Noch gibt es keine gesetzlichen Regeln, welchen ethischen Standards ein KI-Code genügen muss, ein „Ethik-TÜV“für KI-Systeme wird aber kommen. Je früher er kommt und je breiter der gesellschaftliche Konsens ist, auf dem dessen Vorgaben beruhen, desto besser.