Von potenziell markenschädigenden ethischen Risiken bis hin zu regulatorischen Unsicherheiten – KI stellt Investoren vor Herausforderungen.

Künstliche Intelligenz (KI) wirft viele ethische Fragen auf, die sich in Risiken für Verbraucher, Unternehmen und Investoren niederschlagen können. Und die KI-Regulierung, die sich in den verschiedenen Rechtsordnungen uneinheitlich entwickelt, trägt zur Unsicherheit bei. Unserer Meinung nach müssen Anleger vor allem auf Transparenz und Erklärbarkeit achten.
Die ethischen Fragen und Risiken der KI beginnen bei den Entwicklern, die die Technologie schaffen. Von dort fließen sie zu den Kunden der Entwickler - Unternehmen, die KI in ihre Geschäfte integrieren - und weiter zu den Verbrauchern und der Gesellschaft im Allgemeinen. Durch ihre Beteiligungen an KI-Entwicklern und Unternehmen, die KI einsetzen, sind die Anleger beiden Enden der Risikokette ausgesetzt.

KI entwickelt sich schnell und weit schneller, als die meisten Menschen sie verstehen. Zu denjenigen, die versuchen, den Rückstand aufzuholen, gehören globale Regulierungsbehörden und Gesetzgeber. Auf den ersten Blick hat ihre Aktivität im Bereich der KI in den letzten Jahren schnell zugenommen; viele Länder haben entsprechende Strategien veröffentlicht und andere stehen kurz vor deren Einführung (Abbildung).

Globale Entwicklung von KI-Richtlinien und -Vorschriften
Aktivität ist hoch, aber Fortschritte sind uneinheitlich
Globale Entwicklung von KI-Richtlinien und -Vorschriften

Nur zur Veranschaulichung.
Stand: 31. Dezember 2022 
Quelle: AI, Algorithmic and Automation Incidents and Controversies (AIAAIC) Repository; und Nestor Maslej, Loredana Fattorini, Erik Brynjolfsson, 
John Etchemendy, Katrina Ligett, Terah Lyons, James Manyika, Helen Ngo, Juan Carlos Niebles, Vanessa Parli, Yoav Shoham, Russell Wald, Jack Clark und Raymond Perrault, The AI Index 2023 Annual Report, AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, Stanford, CA, April 2023.

In der Realität sind die Fortschritte uneinheitlich und bei weitem noch nicht abgeschlossen. Es gibt keinen einheitlichen Ansatz für die Regulierung von KI in den verschiedenen Rechtssystemen, und einige Länder haben ihre Vorschriften bereits vor dem Start von ChatGPT Ende 2022 eingeführt. Mit der zunehmenden Verbreitung von KI werden viele Regulierungsbehörden die bereits geleistete Arbeit aktualisieren und möglicherweise erweitern müssen.
Für Anleger kommen zu den regulatorischen Unsicherheiten noch andere Risiken der KI hinzu. Um zu verstehen und einzuschätzen, wie man mit diesen Risiken umgehen kann, ist es hilfreich, einen Überblick über die geschäftliche, ethische und regulatorische Landschaft der KI zu haben.

Datenrisiken können Marken schaden zufügen

KI umfasst eine Reihe von Technologien, die darauf abzielen, Aufgaben auszuführen, die normalerweise von Menschen erledigt werden, und zwar auf menschenähnliche Weise. KI und Wirtschaft können sich durch generative KI überschneiden, die verschiedene Formen der Inhaltserstellung umfasst, darunter Video, Sprache, Text und Musik, sowie große Sprachmodelle (LLMs), eine Untergruppe der generativen KI, die sich auf die Verarbeitung natürlicher Sprache konzentriert. LLMs dienen als grundlegende Modelle für verschiedene KI-Anwendungen - wie Chatbots, automatisierte Inhaltserstellung und die Analyse und Zusammenfassung großer Informationsmengen -, die Unternehmen zunehmend für ihre Kundeninteraktion nutzen.
Wie viele Unternehmen festgestellt haben, können KI-Innovationen jedoch potenziell markenschädigende Risiken bergen. Diese können sich aus Vorurteilen ergeben, die den Daten, auf denen LLMs trainiert werden, innewohnen, und haben beispielsweise dazu geführt, dass Banken bei der Bewilligung von Wohnungsbaudarlehen versehentlich Minderheiten diskriminiert haben und dass ein US-amerikanischer Krankenversicherer mit einer Sammelklage konfrontiert wurde, in der behauptet wurde, dass sein Einsatz eines KI-Algorithmus dazu geführt hat, dass älteren Patienten zu Unrecht Ansprüche auf erweiterte Pflege verweigert wurden.
Voreingenommenheit und Diskriminierung sind nur zwei der Risiken, auf die die Aufsichtsbehörden abzielen und die Anleger im Auge behalten sollten; andere sind Rechte an geistigem Eigentum und Überlegungen zum Datenschutz. Auch Maßnahmen zur Risikominderung - wie das Testen der Leistung, Genauigkeit und Robustheit von KI-Modellen durch die Entwickler und die Bereitstellung von Transparenz und Unterstützung für Unternehmen bei der Implementierung von KI-Lösungen - sollten unter die Lupe genommen werden.

Tiefes Verständnis der KI-Vorschriften

Das regulatorische Umfeld für KI entwickelt sich in den einzelnen Ländern auf unterschiedliche Weise und mit unterschiedlicher Geschwindigkeit. Zu den jüngsten Entwicklungen gehören der Artificial Intelligence Act der Europäischen Union (EU), der voraussichtlich Mitte 2024 in Kraft treten wird, und die Reaktion der britischen Regierung auf einen Konsultationsprozess, der im vergangenen Jahr durch die Veröffentlichung des Weißbuchs der Regierung zur KI-Regulierung ausgelöst wurde.
Beide Bemühungen veranschaulichen, wie unterschiedlich die Ansätze zur Regulierung von KI sein können. Im Vereinigten Königreich wird ein prinzipienbasierter Rahmen angenommen, den die bestehenden Regulierungsbehörden auf KI-Fragen in ihren jeweiligen Bereichen anwenden können. Im Gegensatz dazu führt der EU-Rechtsakt einen umfassenden Rechtsrahmen mit risikoabgestuften Compliance-Verpflichtungen für Entwickler, Unternehmen sowie Importeure und Vertreiber von KI-Systemen ein.
Unserer Meinung nach sollten sich Investoren nicht nur mit den Besonderheiten der KI-Vorschriften der einzelnen Länder befassen. Sie sollten sich auch mit der Art und Weise vertraut machen, wie die Rechtsordnungen mit KI-Problemen umgehen, indem sie Gesetze anwenden, die vor den KI-spezifischen Vorschriften gelten und über diese hinausgehen - zum Beispiel das Urheberrecht, wenn es um Datenverstöße geht, und die Arbeitsgesetzgebung in Fällen, in denen KI Auswirkungen auf die Arbeitsmärkte hat.

Fundamentale Analyse und Engagement sind entscheidend

Eine gute Faustregel für Anleger, die versuchen, das KI-Risiko einzuschätzen, ist, dass Unternehmen, die proaktiv umfassende Angaben zu ihren KI-Strategien und -Richtlinien machen, wahrscheinlich gut auf neue Vorschriften vorbereitet sind. Generell sind Fundamentalanalyse und Engagement der Emittenten - die Grundlagen für verantwortungsbewusstes Investieren - in diesem Bereich der Forschung von entscheidender Bedeutung.
Die Fundamentalanalyse sollte sich nicht nur mit den KI-Risikofaktoren auf Unternehmensebene befassen, sondern auch mit der gesamten Geschäftskette und dem regulatorischen Umfeld, wobei die Erkenntnisse mit den Kernprinzipien der verantwortungsvollen KI abgeglichen werden sollten (Abbildung).

Verantwortungsvoller Einsatz von KI: Eine ganzheitliche Sichtweise für Investoren
Verantwortungsvoller Einsatz von KI: Eine ganzheitliche Sichtweise für Investoren

Nur zu Illustrationszwecken.
Source: AllianceBernstein (AB)

Gespräche über das Engagement können so strukturiert werden, dass sie KI-Themen nicht nur im Hinblick auf die Geschäftstätigkeit, sondern auch aus ökologischer, sozialer und führungstechnischer Perspektive abdecken. Investoren können dem Aufsichtsrat und der Geschäftsführung unter anderem folgende Fragen stellen:

  • KI-Integration: Wie hat das Unternehmen KI in seine allgemeine Geschäftsstrategie integriert? Welche konkreten Beispiele für KI-Anwendungen gibt es im Unternehmen?

  • Aufsicht und Fachwissen des Vorstands: Wie stellt der Vorstand sicher, dass er über ausreichende Fachkenntnisse verfügt, um die KI-Strategie und -Implementierung des Unternehmens effektiv zu überwachen? Gibt es spezielle Schulungsprogramme oder Initiativen? 

  • Öffentliches Bekenntnis zu verantwortungsvoller KI: Hat das Unternehmen eine formelle Richtlinie oder einen Rahmen für verantwortungsvolle KI veröffentlicht? Wie steht diese Richtlinie im Einklang mit Branchenstandards, ethischen Überlegungen zu KI und KI-Vorschriften? 

  • Proaktive Transparenz: Hat das Unternehmen proaktive Transparenzmaßnahmen eingeführt, um zukünftigen regulatorischen Auswirkungen standzuhalten? 

  • Risikomanagement und Rechenschaftspflicht: Welche Risikomanagementprozesse hat das Unternehmen eingeführt, um KI-bezogene Risiken zu erkennen und zu mindern? Gibt es eine delegierte Verantwortung für die Überwachung dieser Risiken?

  • Datenprobleme bei LLMs: Wie geht das Unternehmen mit Datenschutz- und Urheberrechtsfragen im Zusammenhang mit den Eingabedaten um, die zum Training großer Sprachmodelle verwendet werden? Welche Maßnahmen wurden ergriffen, um sicherzustellen, dass die Eingabedaten den Datenschutzbestimmungen und Urheberrechtsgesetzen entsprechen, und wie geht das Unternehmen mit Einschränkungen oder Anforderungen im Zusammenhang mit den Eingabedaten um?

  • Vorurteils- und Fairnessprobleme in generativen KI-Systemen: Welche Maßnahmen ergreift das Unternehmen, um vorurteils- oder unfairitätsbedingte Ergebnisse seiner KI-Systeme zu verhindern und/oder zu mildern? Wie stellt das Unternehmen sicher, dass die Ergebnisse generativer KI-Systeme fair und unvoreingenommen sind und keine Diskriminierung oder Schädigung von Einzelpersonen oder Gruppen verursachen?

  • Vorfallverfolgung und -berichterstattung: Wie verfolgt und berichtet das Unternehmen über Vorfälle im Zusammenhang mit der Entwicklung oder Nutzung von KI, und welche Mechanismen gibt es, um diese Vorfälle zu beheben und aus ihnen zu lernen? 

  • Kennzahlen und Berichterstattung: Anhand welcher Kennzahlen misst das Unternehmen die Leistung und die Auswirkungen seiner KI-Systeme, und wie werden diese Kennzahlen externen Interessengruppen mitgeteilt? Wie stellt das Unternehmen sicher, dass die Einhaltung der Vorschriften bei seinen KI-Anwendungen ordnungsgemäß überwacht wird?

Letztendlich ist es für Anleger am besten, sich auf dem Markt zu orientieren, indem sie sich auf das Wesentliche konzentrieren und skeptisch bleiben. Die KI ist eine komplexe und sich schnell entwickelnde Technologie. Anleger sollten auf klare Antworten bestehen und sich nicht von ausgefeilten oder komplizierten Erklärungen beeindrucken lassen.

Die Autoren möchten sich bei Roxanne Low, ESG-Analystin im Team für verantwortungsbewusstes Investieren von AB, für ihre Recherchebeiträge bedanken..

In diesem Dokument zum Ausdruck gebrachte Meinungen stellen keine Analysen, Anlageberatungen oder Handelsempfehlungen dar, spiegeln nicht unbedingt die Ansichten aller Portfoliomanagementteams bei AB wider und können von Zeit zu Zeit überarbeitet werden.