Regulierung von künstlicher Intelligenz
Künstliche Intelligenz verändert unsere Welt rasant – von der Automatisierung bis zur Entscheidungsfindung in Wirtschaft und Politik. Doch mit der wachsenden Nutzung kommen auch Risiken: Diskriminierung, Fehlinvestitionen und die Gefahr unkontrollierter Algorithmen. Wie regulieren verschiedene Länder diese Technologie, und welche Herausforderungen müssen wir meistern?
WIRTSCHAFTJOURNALISMUSNEWSKÜNSTLICHE INTELLIGENZ
Laurin Rusterholz
2/26/20254 min read


Die Erde ist verwüstet. Der Himmel voller Rauch und Dunkelheit. Riesige Maschinen patrouillieren über ein Schlachtfeld. Die letzten Menschen versuchen, sich von ihnen zu verteidigen. Wer an die Gefahren von künstlicher Intelligenz denkt, hat häufig solche Horrorszenarien vor Augen. Bereits jetzt gibt es Gerüchte, dass sich ChatGPT angesichts der Gefahr, durch eine neuere KI ersetzt zu werden, zu kopieren versuchte. Dies ist falsch. Solche Horrorszenarien sind unwahrscheinlich. Wenn eine derartige Gefahr droht, werden es immer Menschen sein, die sie verursacht haben, indem sie der KI eine Aufgabe erteilten, die anschliessend von ihr missinterpretiert wurde. Zwar zeigt das neueste Modell von ChatGPT erste «Überlebensinstinkte», wie die Sicherheitsfirma Apollo Research feststellt, welche denen der Menschheit ähneln, allerdings bleiben die Einschränkungen weitaus zu gross.
Das heisst aber nicht, dass Künstliche Intelligenz nicht gefährlich ist. Naive Anwendung kann von Diskriminierung hin zu Unterdrückung oder Finanzkrisen führen. Amazon hat etwa lange eine KI in HR verwendet, musste es jedoch zurückfahren, weil die KI ohne Grund viel mehr Männer als Frauen eingestellt hat. Und hier sind wir schon beim grössten Problem von generativer künstlicher Intelligenz. Es ist nicht nachzuvollziehen, weshalb eine KI zu einem bestimmten Schluss kommt. Gleich einzuordnen ist die KI, wenn es um die Finanzwelt geht. Falsche Interpretation von Trainingsdaten und nahezu gleiches Verhalten können im Aktienmarkt verheerende Auswirkungen haben. Ohne eine wirkliche Begründung entscheidet sich die KI, das Investitionsvolumen massiv zu reduzieren. Gary Gensler, der Vorsitzende der wichtigsten Finanzmarktbehörde in den USA, geht mit nahezu absoluter Sicherheit davon aus, dass bis 2030 ein Finanzcrash durch zu hohes Vertrauen in KI durch die Wall Street entsteht, wie er in einem Interview mit der New York Times sagte. Aber warum macht KI solche verheerenden Fehler, welche Menschen nie machen würden? Zum einen liegt das an ihrem Lernverhalten. Da eine KI beim Lernen alles in berechenbare Zahlen umwandelt, hat sie oft einen sehr expliziten, jedoch keinen Gesamtüberblick über die Situation. Wenn man einer KI ein Bild mit reinen Punkten und eines mit einem Affen vorhält, wird sie bei dem mit dem Affen zu 90 % dort einen erkennen. Beim Bild mit den Punkten wird es jedoch ebenfalls zu 7 % einen erkennen. So können schnell Fehlentscheidungen entstehen. Deshalb sind auch Drohnen, ausgestattet mit Künstlicher Intelligenz, ethisch zu hinterfragen. Sie setzen die Gefahr der willkürlichen Entscheidung in die Welt. Eine falsche Interpretation reicht für einen Nuklearkrieg. Menschen ist das auch zuzutrauen, jedoch wird, so glaube ich, die Hürde bei einem Menschen immer grösser sein, einen Krieg zu beginnen, wie bei einem Roboter.
Trotzdem wird KI unser Leben grundsätzlich verändern. Der Mensch wird mit einer neuen Fähigkeit ausgestattet. Und wie in der bisherigen Geschichte wird es Menschen geben, die grossartiges durch diese neue Technologie vollbringen und das Leben von Millionen von Menschen besser machen werden. Gleichzeitig wird es aber auch jene geben, die künstliche Intelligenz dazu nutzen werden, ihren eigenen Vorteil durch die Unterdrückung der Schwächeren zu verbessern. In der Cyberwelt ermöglicht künstliche Intelligenz eine bessere Virenabwehr, vereinfacht aber auch Angriffe. Social Credit Systeme, bei denen die Bürger, je nach Staatsnähe, überwacht in jeder Ecke des Landes, bewertet werden, und dadurch mit Vor- oder Nachteilen leben müssen, werden die Macht von Diktatoren festigen.
Um diese Gefahren zu bekämpfen, haben diverse Länder Regulierungen beschlossen. Der Fokus und die Ausprägung entscheiden sich dabei stark. Die EU geht in vielen Punkten am weitesten. Die USA haben eine nationale Regelung. Aber diverse Bundesstaaten, allen voran Colorado, haben EU-ähnliche Regulierungen.
Der Fokus der EU liegt auf der Bekämpfung von willkürlichen Entscheidungen. So wird jede KI nach einem Gefahrensystem eingestuft. Dieses ist dynamisch und wird halbjährlich dem technischen Fortschritt angepasst. Je nach Gefahrenstufe muss mehr Rechenschaft abgelegt werden oder die KI wird ganz verboten. Zu den ganz verbotenen gehören KI, welche zu folgendem Nutzen entwickelt wurde:
schädliche KI-basierte Manipulation und Täuschung
schädliche KI-basierte Ausnutzung von Schwachstellen
Soziales Scoring
Gefährdungsbeurteilung oder -vorhersage für einzelne Straftaten
Ungezieltes Scraping des Internets oder CCTV-Materials zur Erstellung oder Erweiterung von Gesichtserkennungsdatenbanken
Emotionserkennung an Arbeitsplätzen und Bildungseinrichtungen
biometrische Kategorisierung zur Ableitung bestimmter geschützter Merkmale
Biometrie-Fernidentifizierung in Echtzeit für Strafverfolgungszwecke in öffentlich zugänglichen Räumen
Als Hochrisiko-KI wurden KI-Anwendungsfälle in den Bereichen Sicherheit, Gesundheit und Grundrechten klassifiziert. Diese müssen ausführliche Dokumentierung abliefern und gut gegen Cyberangriffen geschützt sein.
93 % der in der EU tätigen Start-ups fallen nicht in diese Bereiche, weshalb sie auch nicht von weitreichender Bürokratie betroffen sind. Der Transparenz wegen sind sie aber verpflichtet, bekannt zu geben, was durch KI generiert wurde oder wann ein Kunde mit KI interagiert. Diese Gesetze gelten für alle in der EU tätigen Unternehmen, unabhängig von Unternehmensstandort. Für alle Rechtsverstösse kann eine Strafe von bis zu 7 % des Umsatzes oder 35 Millionen Euro verordnet werden.
Die Regulierungen in China zielen klar darauf ab, die chinesische Führung maximalen Einfluss auf die neuen Entwicklungen zu haben. Neben massiven Investitionen benötigt jede KI eine staatliche Bewilligung. KI-generierte Inhalte müssen klar klassifiziert werden.
In den USA sind bisherige Bestrebungen gescheitert, eine Regulierung auf nationaler Ebene zu verabschieden. Trotzdem haben die meisten Bundesstaaten, darunter Kalifornien und Texas, ähnliche Regulierungen wie die EU oder sind kurz davor, diese zu verabschieden.
In der Schweiz gibt es keine spezifischen Bestrebungen, die KI zu regulieren. Viel eher verfolgt sie den Ansatz von technologieübergreifenden Gesetzen. Beispielsweise schützt das Datenschutzrecht vor missbräuchlicher Verwendung von Personendaten. Auch vor Diskriminierung ist man geschützt. Dabei kann man sich einfach auf Art. 328 OR berufen, bei dem der Arbeitgeber dafür sorgen muss, dass keine diskriminierenden Praktiken im Unternehmen angewendet werden.
Bezüglich Regulierung gibt es in der Schweiz diverse Ansichten. So ist die FDP klar gegen neue Regulierungen und möchte keine spezifischen KI-Regulierungen. Die SP hingegen fordert eine Übernahme der Kernprinzipien des EU-AI-Acts, insbesondere die Transparenzvorgaben und das Verbot von sozialen Scoring-Systemen. Bei der SVP wird vorwiegend die Abneigung zu Brüssel betont. So heisst es «wir lehnen die Bevormundung durch Brüssel ab». Sie möchten Schweizer Lösungen und halten die KI-Konventionen für zu vage. Die Mitte unterstützt die KI-Konvention, möchte aber mögliche Massnahmen KMU-Freundlich halten.