Hype um Künstliche Intelligenz: Fehlende Regulierung als Risiko für Europa
Marleen Taube & Dr. Burkhard Schwab
1. Einleitung
Dank Open AI`s Chat-GPT, Midjourney oder der Münchener Stable Diffusion generativen KI für Bildgebung, ist generative KI bereits heute omnipräsent. Die effektive, ethische und gesetzlich zulässige Nutzung von KI ist eines der absoluten Top-Themen des öffentlichen Diskurses. Am gewichtigsten, neben medialem Hype und wirtschaftlicher Perspektive, ist möglicherweise die Haltung der Politik zum Thema. Und genau hier gibt es im internationalen Vergleich erhebliche Unterschiede im Umgang mit KI. Während Chinas Regierung Regularien im Umgang mit KI Technologie erlässt, schweigt die europäische Politik auffällig laut.
Die Mensch-gewordene Maschine (?)
Ohne die vielen Anwendungsgebiete und Ausprägungsformen der künstlichen Intelligenz hier im Einzelnen beschreiben zu wollen, können wir eine klare Unterscheidung zwischen der „klassischen“ künstlichen Intelligenz und den neuen generativen Methoden herstellen. Den klassischen Methoden, die mit Hilfe künstlicher neuronaler Netzwerke und anderer Algorithmen in der Lage sind, hochkomplexe Big Data Analysen und ebenso hochkomplexe Aufgaben zu bearbeiten, fehlt das Feature der dynamischen und vielschichtigen Interaktion, dass die „neue“ Technologie der generativen KI bietet. Das bedeutet, dass es durch generative KI möglich geworden ist, eine Mensch-Maschine Interaktion mit menschlichen Kommunikationsformen wie Sprache oder Bildern zu führen, statt sich wie bisher auf spezialisierte Maschinen-Sprache verlassen zu müssen.
Somit ist einer breiten Gruppe von Menschen der Zugang zu diesem mächtigen Werkzeug möglich geworden, und das Wissen der Welt ist nochmals deutlich verfügbarer geworden. Allerdings darf dem derzeitigen Stand der Technik nicht unüberprüft vertraut werden. So gibt es neben offensichtlichen Fehlern in Grundrechenarten, auch frei erfundene „Fakten“.
Generative künstliche Intelligenz umfasst Systeme künstlicher Intelligenz, deren neuronale Netze mit Hilfe von vielfältigen und weitestgehend unsortierten Quelldaten und Trainingsmethoden in der Lage sind, vollständig neue Texte, Bilder, Videos, Animationen, Computer Codes, sogar 3D-Umgebungen, künstliche Charaktere und vieles mehr zu erstellen.
Ein Novum, denn diese scheinbare Kreativität war bisher dem Menschen vorbehalten.
Der Vorteil der generativen KI ist, dass Daten in Fülle vorhanden sind: Das Internet ist eine ertragreiche Quelle für Trainingsdaten. Texte, Sprachen, Bilder, Videos, sind in fast nicht zu überblickender Weise verfügbar.
Mit Reinforcement Learning kann durch den Nutzer ein aktives Feedback in den Lernprozess der KI integriert werden. Die Maschine lernt durch Bestätigung oder Ablehnung der Ergebnisse für die zukünftige Anwendung. Dieses Verhalten entspricht ebenfalls dem Lernprozess von Menschen.
Die Möglichkeit, durch eine breite Öffentlichkeit Trainingsdaten zu generieren und weiterentwickeln zu lassen, entfachte eine kontroverse Diskussion über Notwendigkeit (informations-)ethischer Standards und rechtlicher Regulierungsmöglichkeiten sowie eine Folgenabschätzung dieses beeindruckendsten wirtschaftlichen Werkzeugs seit Erfindung des Webstuhls, auf dessen Basisprinzip Computersysteme bis heute aufbauen.
2. KI ist weder gut noch schlecht – es ist ein Werkzeug.
Die künstliche Intelligenz ist kein reines Zukunftsmodell, sondern wird bereits aktiv im Arbeitsumfeld erfolgreich angewendet. Nicht nur im Bereich von High-Tech Unternehmen oder Softwareentwicklung. Vielmehr ist KI etwa im Umfeld von Kommunikation bereits alltäglicher Begleiter. Werbung, Katalog, aber auch After Sales Kommunikation wird maßgeblich von KI getragen, genauso wie bei der Bewertung von Preisen im Einkauf oder der Finanzierungsberechnung von Bankkrediten.
Wir befinden uns, ähnlich wie die Gesellschaft der Frühindustrialisierung zu Beginn des 19 Jahrhunderts, in einer Umbruchszeit mit grundsätzlichen gesellschaftlichen und wirtschaftlichen Veränderungen. Als Reaktion auf die aufkommenden Webstühle, lehnten sich die Ludditen mit der Zerstörung eben dieser neuen Technologie gegen den Fortschritt auf. Heute streiken Autoren und Schauspieler in Hollywood und fordern den Verzicht auf KI Technologie durch die Filmstudios.
Viele, wenn nicht sogar alle Prozesse in Unternehmen lassen sich optimieren oder ersetzen. Künstliche Intelligenz kann Big Data Analysen zusammenfassen und bisher unbekannte Zusammenhänge in diesen Daten aufzeigen. Dank Generativer KI beschränkt sich die Datenanalyse und der Erkenntnisgewinn nicht mehr nur auf IT-Experten, sondern entfaltet sich entlang der gesamten Wertschöpfungskette als Innovator für Geschäftsmodelle. Die Fähigkeit der KI, hoch dynamisch auf Bestandsprobleme zu reagieren, erlaubt einen weiten Einsatz, besonders in Bereichen, in denen Prozesse im Muster immer gleich ablaufen, aber dynamischen Änderungen eines einzelnen Vorgangs unterliegen. Hier sind Buchhaltung und After-Sales Kommunikation herausragende Beispiele.
Ein einfaches Rechenexempel
Nehmen wir die Rechnungserfassung: Eine Rechnung muss immer erfasst, abgeglichen, freigegeben und gebucht werden. Und doch ist jede Rechnung anders. Der Name lautet anders, die Summe ist anders, der Ansprechpartner ist ein anderer, usw. Ein starrer Algorithmus stößt hier an seine Grenzen, da seine Vorgaben nicht in der Lage sind, dass für einen Menschen schnell erfassbare Muster zu erkennen und zu verarbeiten.
Hier greift das neuronale Netzwerk. Es ordnet die dynamischen Komponenten korrekt zu und erlaubt eine automatische Bearbeitung, ohne oder mit stark reduzierter Notwendigkeit von spezialisierten Fachkräften. Die automatische Verarbeitung reduziert Kosten und den Bedarf an Zeit aber auch Fehler oder Missbrauch.
Das Gleiche gilt für den Einsatz in der After-Sales Kommunikation, wo Kunden eine begrenzte Anzahl an Kommunikationsgründen haben. Etwa Reklamation, Nachbestellung oder Unterstützung. Durch die künstliche Intelligenz ist es möglich diese Gründe individuell pro Kontakt zu erkennen und angemessen zu bearbeiten. Nur in wenigen Fällen ist ein menschlicher Supportkontakt noch notwendig. So ist der Kunde schneller zufrieden, bei gleichzeitig reduziertem Supportaufwand.
Die Grenzen der KI verlaufen dort, wo das Aufzeigen von Problemen außerhalb des definierten Problemkorridors notwendig wird. Zwar kann durch Reinforcement Learning eine Zielvorgabe präzisiert werden, sodass das neuronale Netzwerk Strategien entwickeln muss, um diese zu erreichen. Dabei können innerhalb des Korridors immer neue Probleme gelöst werden.
Doch bisher ist es nicht möglich, dass neuronale Netzwerke selbstständig Probleme erfassen, die außerhalb der Zielvorgabe liegen und beispielsweise Relevanz für andere Bereiche haben. Sie haben bisher keine eigenen Ideen, denn es fehlt der künstlichen Intelligenz das Modell des erfahrenen Menschen. Ein erfahrener Mensch ist in der Lage Problemfelder zu abstrahieren und zur Lösung anderer Probleme anzuwenden. Potenziell ist diese Grenze der KI ein rein technisches Problem. Mit der Entwicklung besserer Rechenkapazitäten und größerer Modelle ist es wahrscheinlich möglich, auch diese Grenze zu überwinden.
Rückwärts immer, vorwärts nimmer?
Als Workaround, bis zur Entwicklung eines generellen KI Models, dass konzeptionell in der Lage ist, abstrakt Lösungen für mehrere Probleme selbstständig zu benutzen, hilft es, die bestehenden neuronalen Netze zu aktualisieren und mit neuen Datenmodellen auszustatten. Dies sorgt für eine höhere Genauigkeit in den Berechnungen.
Ein massives Problem für den Einsatz von KI als Universalwerkzeug löst jedoch auch die Aktualisierung nicht. Per Design ist ein KI Model retrospektiv. Es kann nur auf Basis der bestehenden Daten Aussagen treffen. Damit begrenzt sich der Nutzen auf die Auswertung und Nutzung, sowie Neuinterpretation von bereits Geschaffenem. Vollständig neue Daten, erzeugt von der KI sind jedoch noch nicht möglich.
Und am Beispiel der Chat-Bot KIs „Bob“ und „Alice“, die genutzt wurden, um im Experiment sich gegenseitig zu trainieren, wird deutlich, wieso dies gegenwärtig ein Problem darstellen würde.
Beide Chat-Bots entwickelten binnen kürzester Zeit eine eigene Sprache. Diese erlaubte den Bots eine scheinbar effizientere Kommunikation als die englische Sprache. Bereits nach zwei Tagen war der Punkt überschritten, an dem die Forschenden noch in der Lage waren, zu verstehen, was die Chat-Bots kommunizierten. Das Experiment musste abgebrochen werden.[1]
Die menschliche Sprache ist ein beschränktes Medium, aber notwendig für unser Verständnis, solange wir mit den Maschinen allgemein gültig kommunizieren wollen. Wir müssen also im Rahmen der Entwicklung der nächsten Generationen von Generativer KI-Richtlinien entwickeln, die die Maschinen darauf begrenzen menschlich verständlich und nutzbar zu sein.
Neben diesen Herausforderungen ist die Grundlage für funktionierende KI-Arbeit ist ein umfassender Satz Trainingsdaten. Die Herausforderung beim Aufbau großer Datenmodelle ist nicht die Verfügbarkeit von Datensätzen, sondern die Kuration, Zugriffsmöglichkeit und Rechtssicherheit in der Nutzung. Das Internet bietet sich als eine nahezu allumfassende, multimediale Wissensdatenbank an. Die Grundgesamtheit der Daten ist jedoch ein Spiegelbild von menschlichem Wissen, Individualmeinungen und Emotionen und stellt so eine wissenschaftlich nicht saubere Datenbasis dar. Sie ist geprägt von e.g. Vorurteilen, Fehlannahmen, kultureller Voreingenommenheit und sonstigen potenziellen, subjektiven Fehlerquellen. Diese können die Arbeit einer Arbeits-KI verzerren und bedürfen einer intensiven Kuration, bevor sie einsatzfähig werden
Außerdem steht zu befürchten, dass Urheber die Anbieter von KI-Software verklagen, da Ihre Arbeit nicht lizensiert in die KI-Modelle übernommen worden ist. Eine rechtssichere Nutzung von KI-Ergebnissen ist damit nicht gewährleistet.
Durch die, ebenfalls per Design festgelegte, Intransparenz der Entscheidungsfindungswege und der Intransparenz der genutzten Trainingsdaten, ist eine künstliche Intelligenz kein verlässlicher Partner für das Treffen von relevanten Entscheidungen. Zu oft ist unklar, wie die Antwort der KI konstruiert wird, also welche Parameter wie in die Entscheidung eingeflossen sind.
Gewissheit oder Halluzination?
ChatGPT vermittelt beispielsweise in seinen Antworten den Eindruck von absoluter Sicherheit. Dies geschieht auch bei Inhalten, die nur mit einer geringen Wahrscheinlichkeit stimmen oder schlicht vollkommen falsch oder sogar „ausgedacht“ sind. Man nennt das KI-Halluzination.
Der Einsatz einer KI verändert zwangsläufig das System, in dem sie arbeitet. Daher muss ihr Einsatz mit extremem Bedacht gewählt werden. Es besteht die Gefahr, sich als menschlicher Nutzer auf die Richtigkeit der Aussagen zu verlassen, ohne die notwendige Prüfung vorzunehmen.
In der Konsequenz kann KI kein Entscheider, sondern nur ein unterstützendes Werkzeug für menschliche Entscheider sein. Aber es darf kein Werkzeug sein, um Entscheidungen auszuführen oder als ausschließlicher Datengeber für diese Entscheidungen zu fungieren. Diese Entscheidungsgewalt und Verantwortung können nicht auf eine KI übertragen werden, sondern muss dem Menschen, mindestens als letzte Instanz, vorbehalten bleiben.
Dabei muss man sich immer vor Augen halten, dass KI eine Technologie ist und damit zunächst weder gut, noch schlecht.
Es ist ein Werkzeug mit vielen Nutzungsmöglichkeiten und kann, wie jedes Werkzeug, mit positivem oder negativem Ziel eingesetzt werden. Der Unterschied zum Hammer oder Lötkolben ist das erhebliche Potenzial der künstlichen Intelligenz, was auch ein erhebliches Potenzial für Missbrauch und gesellschaftlichen Umbruch birgt. Die KI zu verbannen ist jedoch im Angesicht des Potenzials ebenso schwierig, wie der ungezügelte Einsatz.
3. Die Büchse der Pandora ist längst geöffnet
Die Büchse der Pandora ist geöffnet und wird nicht mehr geschlossen werden. Der Versuch eines globalen KI-Verbotes ist in sich zum Scheitern verurteilt. Oder mit den Worten Friedrich Dürrenmatts aus dem Jahre 1980: „Was einmal gedacht wurde, kann nicht mehr zurückgenommen werden.“[2]
Wir müssen lernen mit der KI-Technologie zu leben und Sie so anzuwenden, dass sie uns dient.
Die Weltgemeinschaft hat im groben aktuell drei Ansätze diese Aufgabe zu bewältigen:
1. Der europäische Versuch einer Folgenabschätzung und Erstellung eines umfangreichen Handlungsrahmens für die Nutzung von KI-Technologie
Grundsätzlich ist man sich in der EU einig: „To be a global power means to be a leader in AI“.[3] Die Diskussionen zum EU AI Act[4] scheitern bisher aber an Detaildiskussionen. Diese Lähmung innerhalb der Europäischen Union ist geprägt von einem uneinheitlichen Bild und heterogenen Sichtweisen in den einzelnen Mitgliedsstaaten. So hat Italien KI Technologie bereits in Teilbereichen verboten, während Deutschland bestimmte Bereiche, wie kritische Infrastruktur von der Nutzung ausschließen möchte.
Die EU möchte mit ihrer Gesetzgebung einen Rahmen für menschenzentrierte, vertrauenswürdige AI Nutzung herstellen, der zum Schutz von Gesundheit, Umwelt, Grundrechten, Demokratie und gegen Diskriminierung beiträgt.
Der Europäische Ansatz der KI-Regulierung stellt stärker als zuvor Sicherheit, Transparenz und Vertrauen in den Vordergrund und etabliert ein risiko-basiertes Vorgehen. Das heißt, dass anhand von festgelegten Risikoklassen mehr oder weniger Regulierung erforderlich ist. KI mit geringem Risiko wird schwach reguliert. KI, die eine inakzeptable Gefahr für den Menschen darstellen, sollen komplett verboten werden, wie Social Scoring Systeme, Gesichtserkennung und biometrische Erkennung.[5] Diese Technologien gehören in einigen Ländern bereits zum Standard, etwa in China wo der persönliche Social Score direkte Auswirkungen auf die Kreditwürdigkeit von Privatpersonen hat.
Es stellt sich unweigerlich die Frage nach der Innovationsfähigkeit bei KI: Wie viel risikobehaftete Freiheit sind wir bereit aufzugeben für die Sicherheit vielschichtiger Regulierung? Und wie innovativ können wir damit sein?
Die Antwort der EU-Gesetzgebung auf diese Frage sind Sandkästen.
KI-Innovationen und Forschung soll durch zeitlich begrenzte und kontrollierte Umgebungen, ohne die Einschränkungen der Risikoklassifizierung, ermöglicht werden.
Sollte der Zeitplan eingehalten werden und der EU AI Act zum Ende des Jahres 2023 verabschiedet werden, würde die Regulierung damit für alle KI-Anbieter in EU Ländern und Drittländern gelten, die auf dem europäischen Markt anbieten.
2. Die liberale Haltung der Amerikaner gegenüber neuer Technologie
Eine traditionell deutlich liberalere Haltung gegenüber neuer Technologie zeichnet dagegen die Haltung der USA aus. Hier findet bereits eine breite Anwendung von KI-Technologie statt. Auch der militärische Sektor arbeitet bereits mit intensiv mit den neuen Möglichkeiten. Trotz der offenen Haltung ist den USA das negative Potenzial von KI unterstützten Waffen bewusst. Der Entwickler und KI-Waffen Spezialist Hamilton erdachte bereits Szenarien, bei dem eine Kampfdrohne die Aufgabe bekommt, feindliche Ziele auszuschalten. Das Abschießen der Ziele wird durch Punktevergabe belohnt und die Drohne hat die Aufgabe, möglichst viele Punkte zu sammeln. Diese Ziele mussten jedoch vom Operator freigegeben werden. Die Drohne folgerte, dass es für sie viel effektiver sei, die Bestätigung durch den Operator, in Form des Operators auszuschalten, damit sie eine maximale Punktzahl erzielen kann. Hamilton kam zu dem Schluss, dass künstliche Intelligenz ohne Ehtikvorgaben gefährlich werden kann.[6]
3. Die Chinesen als First-Mover mit KI-Richtlinien
China ist das weltweit erste Land, welches einen Handlungsrahmen für die Nutzung von KI definiert. [7] Im Juli 2023 veröffentlichte Chinas Cyberspace Administration ein Interims Regelwerk für generative künstliche Intelligenz.
Diese „Interim Measures for the Management of Generative Artificial Intelligence Services“ beinhalten neben Schutz von Urheberrechten und Datenschutz vor Allem ein Vorgehen gegen Desinformationen und Deepfakes, sowie einen sozio-politischen Grundpfeiler, der die Befolgung der Grundwerte des Sozialismus (社会主义核心价值观) verlangt.
Mit diesen Rahmenbedingungen hat China die eingangs genannten Hauptrisiken in der AI Nutzung bereits adressiert. So werden die Fragen von Urheberrecht, Haftung und Datenschutz genauso geregelt, wie Fragen der gesellschaftlichen Verträglichkeit. China weiß, dass es KI-Technologie nicht ausschließen kann, um seine Vorreiterrolle als Global Player ausbauen zu können. Dennoch versteht die chinesische Regierung die potenziellen Risiken für das System des Landes und etabliert mit diesem Regelwerk gesellschaftliche und wirtschaftliche, aber auch idiologische Leitlinien im Umgang mit der neuen Technologie. Gleichzeitig wird im Regelwerk auch die Umsetzbarkeit der nationalen Leitlinien und Werte, im internationalen Kontext sichergestellt. So müssen sich alle, auch und insbesondere ausländische Anwendungen, einer Kontrolle beugen. Während die Anwendung des Regelwerks sich ausschließlich auf den innerchinesischen Markt begrenzt, sind Aktivitäten im Ausland explizit ausgenommen.
Zudem ist der chinesischen Regierung bewusst, dass die dynamische und offene Weiterentwicklung von generativer KI ein hohes Maß an Flexibilität erfordert. Daher wird das Regelwerk als Interimslösung verwendet, um bei Bedarf schnell reagieren zu können und nicht durch aufwendige Gesetzgebungsverfahren behindert zu werden.
Mit dem so gewonnenen Erfahrungsvorsprung und dem Aufbau eines Grundstocks an rechtsgültigem Regelwerk, kann sich China schneller und mit weniger bürokratischem Aufwand den dynamischen disruptiven Veränderungen im KI-Markt anpassen. Dies könnte sich schon bald als entscheidender Wettbewerbsvorteil und Alleinstellungsmerkmal herausstellen.
4. Der First Mover Advantage
Das chinesische Regelwerk enthält Entscheidungen, die im Einzelnen primär für China anwendbar sind. Die Diskussion, welche der Regeln potenziell auch in Europa Anwendung finden sollten, sollte dringend von den europäischen Interessensvertretern geführt werden.
Denn welche Regeln es auch gibt, sie schaffen in erster Linie Verfahrens- und Rechtssicherheit. Gerade im für Deutschland so wichtigen Mittelstand sind dies bedeutende und damit strategierelevante Punkte.
KI-Rahmenbedingungen sind eine effektive und notwendige Möglichkeit die Risken der KI Nutzung für alle Unternehmen zu begrenzen und Rechtssicherheiten zu schaffen. Handlungsbedarf in Europa ist geboten.
Das Risiko einer unrechtmäßigen und damit potenziell unkalkulierbar teuren Nutzung von KI-Anwendungen in Unternehmen führt zum verspäteten Einsatz. Technologie einzusetzen, die potenziell untersagt oder stark angepasst werden muss, schreckt vor Investitionen ab, wenngleich das Potenzial dahinter den Unterschied zwischen Weltspitze und Bedeutungsverlust ausmachen kann.
Der First Mover Advantage und damit die Vorreiterrolle liegt nun eindeutig nicht mehr in Europa.
Um den Anschluss an die Entwicklungspitze nicht auch noch zu verlieren, ist Europa aufgefordert ein umfassendes und belastbares Leitlinienwerk schnellstmöglich zu erarbeiten und zu etablieren.
Alternativ droht Europa ein Abgehängt werden im Technologiewettstreit. Ein Wettstreit um ein so mächtiges Werkzeug, dessen Bedeutung unüberschaubare Folgen für Wirtschaft und Gesellschaft hat.
Fazit
Das bisher nicht abschätzbare Potenzial generativer KI ist gegenwärtig Risiko und Chance zugleich. Besonders bei ungezügeltem und unkontrolliertem Einsatz dieser Technologie besteht das Risiko von massiven Fehleinschätzungen und gesellschaftsweiten Negativfolgen.
Entwickeln wir jedoch eine KI-Ethik, lernen die Technologie besser zu beherrschen und gehen verantwortungsvoll und kritisch mit diesem Werkzeug um, erlaubt uns der Einsatz von KI-Technologie das Überwinden vieler Grenzen, befreit uns von belastenden Aufgaben und eröffnet und vollkommen neue Horizonte. Die Zeit wird zeigen, welcher Ansatz der Kontrolle und Führung den meisten Nutzen erzeugen wird. Nur das Ignorieren der KI ist nicht mehr möglich.
ADVPER-ImpulsLetter-11_2023_Hype um Künstliche Intelligenz Fehlende Regulierung als Risiko für Europa (0 Downloads )
[1] Chatbot-Projekt von Facebook: Künstliche Intelligenz außer Kontrolle? (handelsblatt.com)/Zugriff 11.8.2023
[2] Die Physiker, S.85, Diogenes Verlag, Neufassung 1980, Friedrich Dürrenmatt
[3] Report on artificial intelligence in a digital age S.61 (https://www.europarl.europa.eu/cmsdata/246872/A9-0088_2022_EN.pdf/ Zugriff: 11.8.2023)
[4]Gesetzesentwurf vom 21.4.2021 (EUR-Lex – 52021PC0206 – EN – EUR-Lex (europa.eu)/Zugriff 11.08.2023)
[5] Parlamentarische Entscheidung nach der 1.Lesung am 14.6.2023 (https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.html/ Zugriff 11.8.2023)
[6] „Falsch ausgedrückt“: US-Drohne „tötete“ virtuell keinen Operator für Punkte | heise online/Zugriff 11.8.23
[7] 生成式人工智能服务管理暂行办法_中央网络安全和信息化委员会办公室 (cac.gov.cn) /Zugriff 30.7.2023,