
16 Jul 2019
Kann künstliche Intelligenz gute Manieren lernen?
Abonnieren Sie unseren Newsletter. Bitte geben Sie Ihre Daten unten ein.
Vorurteile und Stereotypen müssen ausgeräumt werden, damit die KI-Systeme der nächsten Generation ethisch akzeptabel werden, schreibt Louise Hoffman.
Was geschah, als Microsoft "Tay" auf den Markt brachte, einen hochmodernen Chatbot mit künstlicher Intelligenz (KI), der entwickelt wurde, um aus seinen Interaktionen mit Menschen über Twitter zu lernen? In weniger als 24 Stunden wurde es zu einem rassistischen, misogynen, Neonazi. Seine Schöpfer zogen kurzerhand den Stecker.
Kurz nach dem offline gehen von Tay bloggte Peter Lee, Corporate Vice President von Microsoft Healthcare: "Wir bedauern zutiefst die unbeabsichtigten offensiven und verletzenden Tweets.... die nicht repräsentieren, wer wir sind oder wofür wir stehen".
Ein unbeschwertes Experiment, das schiefgelaufen ist, mag es gewesen sein, aber der Vorfall und die anschließende Entschuldigung haben ein großes Problem für Entwickler aufgezeigt. Wie stellen wir sicher, dass die KI-Systeme akzeptable kulturelle und ethische Werte haben?
In Wahrheit ist Tay eines von vielen aktuellen Beispielen für die Fallstricke des maschinellen Lernens. Im Jahr 2017 zeigten Forscher der Princeton University und der University of Bath, dass KI menschenähnliche semantische Vorurteile aus geschriebenen Texten lernen kann. Sie studierten Millionen von Wörtern online und betrachteten insbesondere ihrer Nähe zueinander; derselbe Ansatz, der von automatischen Übersetzungssystemen verwendet wird, um die Bedeutung von Sprache zu erlernen.
Ihre Ergebnisse zeigten, dass männliche Namen enger mit mathematischen, naturwissenschaftlichen und karrierebezogenen Begriffen verbunden waren. Weibliche Namen wurden in erster Linie mit künstlerischen und familiären Begriffen verknüpft.
Es gab auch starke Verbindungen zwischen europäischen oder amerikanischen Namen und angenehmen Begriffen, während afroamerikanische Namen oft mit unangenehmen Begriffen in Verbindung gebracht wurden.
"Unsere Arbeit hat Auswirkungen auf die KI und das maschinelle Lernen, da wir befürchten, dass diese Technologien kulturelle Stereotypen aufrechterhalten können", sagten die Forscher. "Bereits jetzt beziehen beliebte Online-Übersetzungssysteme einige der Vorurteile mit ein, die wir untersuchen. Weitere Probleme können entstehen, da die KI in unserer Gesellschaft einen immer größeren Stellenwert erhält."
Müll rein, Müll raus
Unangepasst hat diese Art von Voreingenommenheit die Macht, das Leben der Menschen erheblich zu beeinflussen, da die einflussreichsten Institutionen der Welt ihre Nutzung von KI verstärken.
So wird beispielsweise bereits behauptet, dass sie zu einer rassischen und geschlechtsspezifischen Diskriminierung von Bankkreditnehmern geführt hat, da die Systeme auf Daten zurückgreifen, die soziale und kulturelle Ungleichheiten widerspiegeln. Schließlich ist die KI nur so gut wie die Informationen, die ihr zugeführt werden. "Garbage in, garbage out", so lautet das Sprichwort.
Viele Finanzdienstleistungsunternehmen konzentrieren ihre Bemühungen nun auf die Entwicklung einer ethischen KI, in der Hoffnung, neue Standards in der gesamten Branche zu setzen.
Aber, wie Jiahao Chen, früher Forschungswissenschaftler bei Capital One und heute VP von AI Research bei JPMorgan Chase, betont hat, ist es keine leichte Aufgabe.
"Die erste klare Herausforderung ist der Nachweis, dass ein maschinell lernendes Modell, welches dazu bestimmt ist, Kreditentscheidungen zu treffen, den Gesetzen des fairen Kreditvergabeverfahrens entspricht. Gesetze, wie der Equal Credit Opportunity Act der Vereinigten Staaten, verlangen von den Banken den Nachweis, dass die Art und Weise, wie sie Kredite an Kunden vergeben, keine Diskriminierung aufgrund von geschützten Klassen wie Rasse, Hautfarbe, Religion, nationaler Herkunft, Geschlecht, Familienstand und Alter darstellt. Die Umsetzung dieser Rechtsbegriffe in präzise mathematische Aussagen wirft jedoch unmittelbar das Problem auf, dass es mehrere Rechtsbegriffe von Fairness gibt.
"Es gibt eine "ungleiche Behandlung", bei der Menschen aufgrund ihrer geschützten Merkmale unterschiedlich behandelt werden, und auch eine "ungleiche Wirkung", bei der das Ergebnis einer Politik ein Beweis für Diskriminierung sein könnte.
Banken wollen in beide Richtungen fair sein, sowohl in Bezug auf die Inputs zu einer Entscheidung als auch auf die Ergebnisse einer Entscheidung.
"Die Herausforderung, sowohl die ungleiche Behandlung als auch die ungleiche Auswirkung von Risiken vollständig zu mindern, erfordert eine Diskussion zwischen Wirtschaftsführern, Datenwissenschaftlern und Rechtsexperten, um die beste Risikomanagementstrategie für jede Anwendung zu ermitteln. Es bedarf auch eines entschieden menschenorientierten Ansatzes, um das Vertrauen zu stärken, dass maschinell generierte Entscheidungen im Interesse des Kunden getroffen werden."
Nächste Generation enkulturierter KI
Fair-Lending-Rechtsvorschriften sind die Spitze des Eisbergs, wenn es darum geht, die nächste Generation von "enkulturierter" KI-Systemen zu entwickeln. Ein weiterer Schlüsselfaktor ist der kulturelle Kontext; da Ethik und Werte von Gemeinschaft zu Gemeinschaft auf der ganzen Welt unterschiedlich sind, von welcher Kultur sprechen wir, wenn wir über ethische KI diskutieren? Oder ist es möglich, dass KI-Systeme so konzipiert werden, dass sie die kulturelle Vielfalt berücksichtigen?
Kenneth D. Forbus, Walter P. Murphy Professor für Informatik und Professor für Bildung an der Northwestern University in den USA, beschäftigt sich intensiv mit der Erforschung der Beziehung zwischen KI und Kultur. In der Erkenntnis, dass die Entscheidungen der Menschen in ihrer Umwelt, ihrer Erziehung und Erfahrung verwurzelt sind, glaubt er, dass "die Schaffung von KI-Systemen, die kulturell beeinflusste Argumente berücksichtigen können, entscheidend für die Schaffung genauer und effektiver Rechenhilfen für Analysten, Entscheidungsträgern, Verbrauchern und Bürger ist".
Tatsächlich wurden bereits Fortschritte bei der Entwicklung von KI erzielt, die dies durch die Analyse kultureller Narrative tun kann. "Die jüngsten Fortschritte....haben Systeme bereitgestellt, die die Grundlage für eine neue analogiebasierte Technologie für die KI bilden. Das heißt, bei einem neuen Problem kann ein System mit einem menschenähnlichen Abrufprozess eine ähnliche Vorfallsituation finden und feststellen, wie sie zutrifft", erklärt er.
Vorhersage von Reaktionen und Einigung
Forbus prognostiziert, dass der Aufbau kultureller Modelle durch analoges Lernen aus den Erzählungen einer Kultur schließlich zu KI-Systemen führen könnte, die beispielsweise Entscheidungsträgern helfen würden, zu verstehen, wie verschiedene kulturelle Gruppen auf neue Regelungen reagieren könnten, oder Verhandlungsführern helfen, eine gemeinsame Basis zu finden.
"Da KI-Systeme intelligenter und flexibler werden, erscheint es vielversprechend, sie zu vollwertigen Partnern in unserer Kultur zu machen, um sicherzustellen, dass sie in ihren Auswirkungen von Vorteil sind", begründet er.
Während sich Informatiker und Entwickler also mit der Frage auseinandersetzen, wie man eine objektive, aber kulturell relevante KI in einer komplexen menschlichen Welt einsetzen kann, liegt die Zukunft der maschinellen Intelligenz offenbar hauptsächlich in ihrem Input.
Wenn Sie die Datenqualität richtig einstellen, könnten die Möglichkeiten theoretisch endlos sein. Vor allem im Geschäftsleben.
"Betrachten Sie für einen Moment eine wirklich datengesteuerte Organisation", sagte Jean-Philippe Courtois, Microsoft EVP und President of Global Sales, Marketing and Operations, auf dem Weltwirtschaftsforum 2018. "Die Fähigkeit, Informationen in Echtzeit in der gesamten Organisation zu nutzen, um fließende Geschäftsentscheidungen zu treffen, kann die Kultur eines Unternehmens verändern."
Dieser Artikel stammt aus der aktuellen Ausgabe der Zeitschrift OBSERVE von Odgers Berndtson.