In der Realität sind die Fortschritte uneinheitlich und bei weitem noch nicht abgeschlossen. Es gibt keinen einheitlichen Ansatz für die Regulierung von KI in den verschiedenen Rechtssystemen, und einige Länder haben ihre Vorschriften bereits vor dem Start von ChatGPT Ende 2022 eingeführt. Mit der zunehmenden Verbreitung von KI werden viele Regulierungsbehörden die bereits geleistete Arbeit aktualisieren und möglicherweise erweitern müssen.
Für Anleger kommen zu den regulatorischen Unsicherheiten noch andere Risiken der KI hinzu. Um zu verstehen und einzuschätzen, wie man mit diesen Risiken umgehen kann, ist es hilfreich, einen Überblick über die geschäftliche, ethische und regulatorische Landschaft der KI zu haben.
Datenrisiken können Marken schaden zufügen
KI umfasst eine Reihe von Technologien, die darauf abzielen, Aufgaben auszuführen, die normalerweise von Menschen erledigt werden, und zwar auf menschenähnliche Weise. KI und Wirtschaft können sich durch generative KI überschneiden, die verschiedene Formen der Inhaltserstellung umfasst, darunter Video, Sprache, Text und Musik, sowie große Sprachmodelle (LLMs), eine Untergruppe der generativen KI, die sich auf die Verarbeitung natürlicher Sprache konzentriert. LLMs dienen als grundlegende Modelle für verschiedene KI-Anwendungen - wie Chatbots, automatisierte Inhaltserstellung und die Analyse und Zusammenfassung großer Informationsmengen -, die Unternehmen zunehmend für ihre Kundeninteraktion nutzen.
Wie viele Unternehmen festgestellt haben, können KI-Innovationen jedoch potenziell markenschädigende Risiken bergen. Diese können sich aus Vorurteilen ergeben, die den Daten, auf denen LLMs trainiert werden, innewohnen, und haben beispielsweise dazu geführt, dass Banken bei der Bewilligung von Wohnungsbaudarlehen versehentlich Minderheiten diskriminiert haben und dass ein US-amerikanischer Krankenversicherer mit einer Sammelklage konfrontiert wurde, in der behauptet wurde, dass sein Einsatz eines KI-Algorithmus dazu geführt hat, dass älteren Patienten zu Unrecht Ansprüche auf erweiterte Pflege verweigert wurden.
Voreingenommenheit und Diskriminierung sind nur zwei der Risiken, auf die die Aufsichtsbehörden abzielen und die Anleger im Auge behalten sollten; andere sind Rechte an geistigem Eigentum und Überlegungen zum Datenschutz. Auch Maßnahmen zur Risikominderung - wie das Testen der Leistung, Genauigkeit und Robustheit von KI-Modellen durch die Entwickler und die Bereitstellung von Transparenz und Unterstützung für Unternehmen bei der Implementierung von KI-Lösungen - sollten unter die Lupe genommen werden.
Tiefes Verständnis der KI-Vorschriften
Das regulatorische Umfeld für KI entwickelt sich in den einzelnen Ländern auf unterschiedliche Weise und mit unterschiedlicher Geschwindigkeit. Zu den jüngsten Entwicklungen gehören der Artificial Intelligence Act der Europäischen Union (EU), der voraussichtlich Mitte 2024 in Kraft treten wird, und die Reaktion der britischen Regierung auf einen Konsultationsprozess, der im vergangenen Jahr durch die Veröffentlichung des Weißbuchs der Regierung zur KI-Regulierung ausgelöst wurde.
Beide Bemühungen veranschaulichen, wie unterschiedlich die Ansätze zur Regulierung von KI sein können. Im Vereinigten Königreich wird ein prinzipienbasierter Rahmen angenommen, den die bestehenden Regulierungsbehörden auf KI-Fragen in ihren jeweiligen Bereichen anwenden können. Im Gegensatz dazu führt der EU-Rechtsakt einen umfassenden Rechtsrahmen mit risikoabgestuften Compliance-Verpflichtungen für Entwickler, Unternehmen sowie Importeure und Vertreiber von KI-Systemen ein.
Unserer Meinung nach sollten sich Investoren nicht nur mit den Besonderheiten der KI-Vorschriften der einzelnen Länder befassen. Sie sollten sich auch mit der Art und Weise vertraut machen, wie die Rechtsordnungen mit KI-Problemen umgehen, indem sie Gesetze anwenden, die vor den KI-spezifischen Vorschriften gelten und über diese hinausgehen - zum Beispiel das Urheberrecht, wenn es um Datenverstöße geht, und die Arbeitsgesetzgebung in Fällen, in denen KI Auswirkungen auf die Arbeitsmärkte hat.
Fundamentale Analyse und Engagement sind entscheidend
Eine gute Faustregel für Anleger, die versuchen, das KI-Risiko einzuschätzen, ist, dass Unternehmen, die proaktiv umfassende Angaben zu ihren KI-Strategien und -Richtlinien machen, wahrscheinlich gut auf neue Vorschriften vorbereitet sind. Generell sind Fundamentalanalyse und Engagement der Emittenten - die Grundlagen für verantwortungsbewusstes Investieren - in diesem Bereich der Forschung von entscheidender Bedeutung.
Die Fundamentalanalyse sollte sich nicht nur mit den KI-Risikofaktoren auf Unternehmensebene befassen, sondern auch mit der gesamten Geschäftskette und dem regulatorischen Umfeld, wobei die Erkenntnisse mit den Kernprinzipien der verantwortungsvollen KI abgeglichen werden sollten (Abbildung).