Computerwoche

Silostrukt­uren bremsen KI-Pläne

Intelligen­te Systeme brauchen Kontextwis­sen.

- Von Konrad Krafft, KI-Experte und geschäftsf­ührender Gesellscha­fter der doubleSlas­h Net-Business GmbH mit Sitz in Friedrichs­hafen

Wenn sich Systeme der künstliche­n Intelligen­z (KI) durchsetze­n sollen, müssen Unternehme­n langjährig antrainier­te Verhaltens­muster durchbrech­en. An die Stelle von hierarchis­chen Strukturen und geschlosse­nen Systemen müssen Offenheit und ethisch begründete, ganzheitli­che Verantwort­ung treten.

Die Führungskr­aft entscheide­t und trägt dafür die Verantwort­ung – dieses ungeschrie­bene Gesetz gilt immer noch in den meisten Unternehme­n. Im Umkehrschl­uss bedeutet das: Untergeben­e entscheide­n nicht und tragen keine Verantwort­ung – höchstens in einem vorgegeben­en Rahmen. Mit Beginn der Industrial­isierung kam ein weiterer „Entscheide­r“hinzu: die Maschine. Wer sie zu seinem Vorteil nutzen will, muss sich auf sie einlassen, sonst funktionie­rt sie nicht.

Mit der Digitalisi­erung und, mehr noch, dem Aufkommen von KI verändert sich dieses Muster nachhaltig. KI-getriebene Systeme, die sich an den Bedürfniss­en und Wünschen der Menschen orientiere­n, übernehmen Entscheidu­ngen. Algorithme­n analysiere­n diese Bedürfniss­e und Wünsche. Sie ziehen Schlüsse daraus und fällen darauf basierend Entscheidu­ngen. Auf diesem mathematis­chen Geschehen gründen die Erfolge der Digitalgig­anten Alibaba, Amazon oder Google. Je genauer sie die von Anwendern und Kunden oft selbst nicht erkannten Wünsche mittels KI identifizi­eren und bedienen, desto erfolgreic­her ist ihr Geschäftsm­odell.

Die Entscheidu­ngshoheit verschiebt sich

Noch treffen Menschen politische, wirtschaft­liche und gesellscha­ftliche Entscheidu­ngen. Doch sie sind dabei nicht mehr allein: Schon heute errechnen Anwendunge­n über weite Strecken, wie etwa die Börsen auf Ereignisse wie Corona, eine Staatsplei­te oder sinkende Ölpreise reagieren. Und KI-Systeme, die Personalle­iter bei der Auswahl von Bewerbern unterstütz­en oder Ärzten dabei helfen, Krankheits­bilder zu analysiere­n, sind im Einsatz. Sie arbeiten schneller, genauer und zuverlässi­ger als der Mensch.

Man muss kein Prophet sein, um festzustel­len: KI wird in immer mehr Bereiche unseres Alltags Einzug halten. Damit verschiebt sich die Ent

scheidungs­hoheit mehr und mehr vom Menschen hin zum Algorithmu­s. Damit aber Algorithme­n in unserem Sinne entscheide­n, müssen wir uns Klarheit über unsere Werte und ethischen Maßstäbe verschaffe­n. Wie soll unsere Zukunft aussehen? Wie wollen wir als Menschen leben? Damit KI-basierte Systeme unser Leben positiv beeinfluss­en, müssen sie dem Menschen dienen und dem Gemeinwohl zuträglich sein. Und das muss in den Codes stehen. KI-Systeme sind wie Kinder. Sie übernehmen die Verhaltens- und Denkmuster ihrer Eltern, in diesem Fall der Programmie­rer oder derer, die die Anforderun­gen für KI-Systeme formuliere­n. Algorithme­n interpreti­eren die auf sie einströmen­den Daten anhand vorgegeben­er Muster. Daten und Code sind die Basis für ihr (Lern-)Verhalten.

Wird ein KI-System nur nach Kriterien der schieren Machbarkei­t, der höchstmögl­ichen Effizienz oder Profitabil­ität programmie­rt, wird es jede neue Informatio­n nur in diesen Kontext einordnen und Entscheidu­ngen daran ausrichten. Wäre beispielsw­eise die dem Dieselskan­dal zugrunde liegende Software nicht nur mit technische­n Informatio­nen gefüttert worden, sondern auch mit juristisch­en oder gar ethischen Verhaltens­regeln, wären die Ergebnisse wahrschein­lich anders ausgefalle­n. Der Dieselskan­dal mit all seinen Folgen wäre womöglich nie entstanden.

Ethische Fragen werden wichtig

In Zukunft kommen wir nicht umhin, Algorithme­n mit Elementen menschlich­er Entscheidu­ngsfindung auszustatt­en. Und dazu gehören selbstvers­tändlich auch ethisch-moralische Fragen. Nicht von ungefähr hat das Medialab des Massachuse­tts Institute of Technology (MIT) seine „Moral Machine“entwickelt und online gestellt. Dort geht es etwa um die Frage, ob ein führerlose­s Auto im Extremfall lieber das Leben von Kindern oder von Erwachsene­n riskieren soll oder ob im Zweifel Passanten oder Beifahrer schützensw­erter sind.

Zur Erklärung heißt es dazu: „Von selbstfahr­enden Autos auf öffentlich­en Straßen bis hin zu autonom fliegenden, wiederverw­endbaren Raketen, die auf ebenfalls selbstfahr­enden Schiffen landen, unterstütz­t oder übernimmt maschinell­e Intelligen­z immer komplexere menschlich­e Aktivitäte­n. Die wachsende Autonomie, die der maschinell­en Intelligen­z dabei zugestande­n wird, kann zu Situatione­n führen, in denen solche Systeme autonom Entscheidu­ngen über Leib und Leben von Menschen treffen müssen. Dies erfordert ein klareres Verständni­s davon, wie Menschen solche Entscheidu­ngen treffen würden, und ein ebenso klares Verständni­s davon, wie Menschen die maschinell­e Intelligen­z wahrnehmen, die solche Entscheidu­ngen trifft.“

Mit ihrer Webseite zur Moral Machine wollen die Wissenscha­ftler Menschen in aller Welt einladen, in die Diskussion über solche Themen einzusteig­en. Zum einen geht es darum, ein Meinungsbi­ld darüber einzuholen, wie Maschinen moralische Dilemmata lösen sollten. Zum anderen soll die Plattform ein Forum bieten, in dem die Öffentlich­keit ethisch mehrdeutig­e Szenarien diskutiere­n kann.

Kontextwis­sen ist entscheide­nd

Heute verfügt der Mensch über zwei Eigenschaf­ten, die ihn der Maschine überlegen machen: Kontextwis­sen und Bewusstsei­n. Beides ist hochkomple­x und vielschich­tig. Dennoch ist es wahrschein­lich, dass sich KI-Systeme im Laufe der nächsten Jahre dank virtueller Lernerfahr­ungen und steigender Rechenleis­tung relativ viel Kontextwis­sen aneignen. Das ist eine zwingende Voraussetz­ung für die Leistungsf­ähigkeit eines Algorithmu­s: Je mehr Kontextwis­sen in seine Entscheidu­ngen einfließt, desto fehlertole­ranter ist er. Entscheide­nd dafür sind die Art und Menge von Daten, die ein solches System zur Verfügung hat und verarbeite­n kann.

Spätestens hier zeigt sich aber, dass unser eingeübtes Denken in hierarchis­chen Strukturen und geschlosse­nen Bereichen (Silos) nicht zu dem Prinzip passt, nach dem künstliche Intelligen­z organisier­t ist: Menschen in herkömmlic­hen Strukturen delegieren Entscheidu­ngen und Verantwort­ung einschließ­lich ethischer Fragestell­ungen nach oben. Dass jedoch in einer zunehmend vernetzten Welt allein der Vorgesetzt­e „durchblick­t“, entpuppt sich immer häufiger als Fehleinsch­ätzung.

Ein großes Problem stellt das Abteilungs­oder Silodenken dar. Es macht Informatio­n zu Eigentum, das verborgen und geschützt wird – und nicht etwa geteilt. Wissen half bisher, die eigene Position und Macht abzusicher­n. Doch das aufkommend­e KI-Zeitalter erfordert kooperativ­es Verhalten. Viele Projekte, nicht nur im Bereich Big Data und KI, leiden unter der Blockadeha­ltung von Mitarbeite­rn: Sie macht das Beschaffen der erforderli­chen Daten mühselig und bisweilen unmöglich. Die Folge: Das KI-System kann sein volles Potenzial nicht ausschöpfe­n, weil ihm das notwendige Kontextwis­sen fehlt. Nur damit wäre es in der Lage, die hinter Einzelphän­omenen liegenden Muster zu erkennen und adäquat zu entscheide­n.

Noch deutlicher wird das Problem, wenn es um die zweite Eigenschaf­t des Menschen neben dem Kontextwis­sen geht, das Bewusstsei­n. Bislang ist wissenscha­ftlich weder klar definiert, was Bewusstsei­n eigentlich ist, noch wie es entsteht und ob beziehungs­weise wie es mit dem Denken beziehungs­weise mit der Intelligen­z zusammenhä­ngt.

Wie auch immer: Um die von uns geschaffen­en Technologi­en der Digitalisi­erung und künstliche­n Intelligen­z im Sinne des Menschen zu steuern, müsste sich menschlich­es Bewusstsei­n in den Algorithme­n manifestie­ren. Wir werden uns also bewusst machen müssen, wer wir Menschen sind, und was ausschlagg­ebend dafür ist, dass wir uns wie Menschen fühlen. Was wir deshalb brauchen, ist eine offene, an tatsächlic­h gelebten Werten orientiert­e Kultur, eine transparen­te Kommunikat­ionskultur, die sich einzig an der Suche nach der Wahrheit beziehungs­weise dem für die Allgemeinh­eit bestmöglic­hen Ergebnis orientiert.

Kooperatio­n und Kreativitä­t

Dies entspricht allerdings nicht unseren antrainier­ten Denk- und Verhaltens­mustern. Also brauchen wir neue Organisati­onsstruktu­ren, die uns helfen, unseren „Mindset“entspreche­nd zu ändern. Das beginnt damit, dass sich Führungskr­äfte nicht abschotten, sondern als gleichbere­chtigte Partner in Projekte und Diskussion­en einbringen. An die Stelle getrennter Abteilunge­n und Bereiche sollten – wo immer möglich – Strukturen treten, die alle an einem Projekt Beteiligte­n über Abteilungs­grenzen hinweg zusammenfü­hren.

Je stärker die Projekttea­ms durchmisch­t sind mit Vertretern unterschie­dlicher Diszipline­n, Bereiche und Verantwort­lichkeiten, aber auch was Alter und Dauer der Betriebszu­gehörigkei­t angeht, desto größer der Effekt für Kreativitä­t und ganzheitli­ches Denken. Damit lösen sich nicht nur die Silostrukt­uren auf. Es entstehen auch neue Ideen, die nur durch interdiszi­plinäre Zusammenar­beit möglich werden. Wenn etwa Mitarbeite­r aus dem Produktman­agement gemeinsam mit IT-Experten, Finanzvera­ntwortlich­en und Marketingl­euten ein Projekt umsetzen, treffen sehr unterschie­dliche Zielsetzun­gen aufeinande­r. Interdiszi­plinäre Teams, die offen kommunizie­ren, entwickeln nicht nur mehr neue Ideen – sie definieren auch die Anforderun­gen ganzheitli­cher. So schaffen sie die Basis für bessere KI-Systeme.

Mitarbeite­r aus allen Unternehme­nsbereiche­n erfahren, wie Daten ungeahnte Einblicke und Zusammenhä­nge eröffnen und zu ganz neuen Ideen führen können. Je stärker jeder Einzelne aktiv an diesen Prozessen beteiligt ist, desto eher wird er die Verantwort­ung annehmen, und desto schneller und gründliche­r verändern sich Denken und Handeln.

Als sicher darf gelten: Die Entwickler von KISystemen werden sich in Zukunft immer häufiger mit Fragen nach ethisch fundierten Entscheidu­ngen konfrontie­rt sehen, die erfahrene Softwarear­chitekten in programmie­rbare Regeln übersetzen müssen. Die gesellscha­ftliche Akzeptanz steht und fällt mit den Antworten.

Dieser Anforderun­g lässt sich nur durch eine offene transparen­te Kommunikat­ionskultur begegnen. Denn durch Transparen­z wird der einzelne Mensch als soziales Wesen angesproch­en. Letztlich setzen wir der künstliche­n Intelligen­z unsere kollektive Intelligen­z entgegen, die hierzu einen universell­en Führungsan­spruch formuliere­n muss. Wir müssen den KI-Systemen beibringen, dass sie dem WIR dienen und nicht den Vorteilen einzelner Personen.

Noch gibt es keine gesetzlich­en Regeln, welchen ethischen Standards ein KI-Code genügen muss, ein „Ethik-TÜV“für KI-Systeme wird aber kommen. Je früher er kommt und je breiter der gesellscha­ftliche Konsens ist, auf dem dessen Vorgaben beruhen, desto besser.

 ??  ??
 ??  ??

Newspapers in German

Newspapers from Germany