Home Ein Leserblick in die Zukunft – Maria Moloney: « AI ACT wird die Notwendigkeit menschlicher Überwachung verstärken »

GEAB 181

Der monatliche Informationsbrief des Laboratoire européen d'Anticipation Politique (LEAP) - 15 Jan. 2024

Ein Leserblick in die Zukunft – Maria Moloney: „AI ACT wird die Notwendigkeit menschlicher Überwachung verstärken“

Diesen Monat hatten wir das Vergnügen, mit Dr. Maria Moloney darüber zu sprechen, was 2024 für Innovationen im Bereich der KI und des Datenschutzes bringen könnte, sowie über Fragen der europäischen und globalen Gesetzgebung in diesem Bereich. Sie hat am Trinity College Dublin in Informationssystemen promoviert, ist Senior Specialist für Datenschutz, Sicherheit und KI bei dem irischen Technologieunternehmen, PrivacyEngine, und arbeitet mit großen Privatunternehmen in Europa und Amerika sowie mit öffentlichen Verwaltungen zusammen. Ihre Aufgabe als Beraterin ist es, Datenschutz, Sicherheit und Künstliche Intelligenz aus der Perspektive der Compliance zu betrachten.

Der Fortschritt und die Forschung im Bereich KI werden 2024 meiner Meinung nach sicherlich noch intensiver sein als 2023, da wir uns erst am Anfang der KI-Systeme und ihrer Nutzung befinden. Wir haben bereits viel über generative KI gesprochen, aber 2024 und 2025 müssen wir noch weiter gehen, um genau zu verstehen, wie diese Modelle in Unternehmen eingesetzt werden können, welche Vorteile sie bieten, aber auch welche Nachteile sie haben. Im Jahr 2023 lag der Schwerpunkt auf den großen linguistischen Modellen, während wir uns 2024 mehr mit multimodalen KI-Modellen beschäftigen werden. Chat-GPT 3.5 beschäftigte sich mit der Interpretation von Text, während GPT-4 nun verschiedene Modalitäten wie Text, Audio und Video kombiniert. Folglich können diese KI-Modelle viel intuitivere Antworten geben. Um ehrlich zu sein, ist es spannend, derzeit in diesem Bereich zu arbeiten, und es ist nicht übertrieben zu sagen, dass die KI in den letzten zwölf Monaten die Art und Weise, wie Menschen arbeiten, verändert hat. Wir wissen mittlerweile, dass es sich um eine extrem disruptive Technologie handelt. Es ist klar, dass sie enorme Vorteile mit sich bringt, wir sehen selbstfahrende Autos kommen und ganz allgemein eine massive Zunahme der Automatisierung. Ein großer Teil der Arbeit, die immer als langweilig und schwierig galt, kann nun von künstlicher Intelligenz erledigt werden. Dadurch werden Menschen entlastet und wir können mehr Zeit für kreativere Tätigkeiten aufwenden, anstatt Dinge tun zu müssen, die wir als repetitiv und zeitaufwendig empfinden.

Das Gesetz über künstliche Intelligenz wird Europa auf die Landkarte der globalen KI-Regulierung setzen.

Höchstwahrscheinlich wird der AI ACT Europa in Bezug auf die Regulierung von Künstlicher Intelligenz auf die Landkarte setzen, da Europa nun den Platz der weltweit ersten Gerichtsbarkeit einnimmt, die KI reguliert und damit den Weg für eine vertrauenswürdige KI ebnet. Seit dem Inkrafttreten der DSGVO im Jahr 2018 haben wir als Europäer viel über risikobasierte Gesetzgebung und ihre Vorteile gelernt, daher hat die EU die gleiche risikobasierte Methode für das KI-Gesetz übernommen, und es war relativ schnell möglich, sich zu einigen. Dies ist größtenteils auf die Wahlen zum Europäischen Parlament zurückzuführen, die Ende des Jahres stattfinden werden. Die Kommission wollte bis Ende 2023 eine Einigung erzielen. Eine Einigung war besonders wichtig, da Europa, ähnlich wie bei der DSGVO, bei der KI-Gesetzgebung eine Vorreiterrolle einnehmen möchte.

Die EU wurde immer als der Ort angesehen, an dem der Schutz der Bürger an erster Stelle steht. Ich denke, die Bedrohung der Rechte und Freiheiten der Bürger durch künstliche Intelligenz war groß genug, dass Europa erkannte, dass es schnell handeln musste, um sie zu regulieren. Die Herausforderung besteht jedoch darin, dass sich diese Intelligenz weiterhin in einem rasanten Tempo entwickelt. Deshalb wird diskutiert, in die KI-Verordnung Bestimmungen aufzunehmen, die es der Europäischen Kommission ermöglichen, das Gesetz in Zukunft zu ändern, falls dies erforderlich sein sollte. Ich denke, sie haben sehr gute Arbeit geleistet, indem sie versucht haben, etwas auf den Weg zu bringen, das die Messlatte in Bezug auf das Vertrauensniveau hoch legt, das Unternehmen erwarten, um Zugang zum europäischen Markt zu erhalten. Wie bei der DSGVO wird es natürlich Jahre dauern, bis alles perfekt geregelt ist, aber es ist ein guter Anfang.

In den USA, Großbritannien und vielen anderen Ländern gibt es keine umfassende KI-Regulierung und die Vorschriften sind oft branchenspezifisch. In Europa wird ein horizontaler Ansatz verfolgt, d. h. jeder Sektor muss sich an dieselbe Gesetzgebung halten, nämlich das europäische KI-Gesetz. Das ist 2018 auch bei der DSGVO geschehen. Dies ist ein guter Weg für die EU, um in allen Sektoren die vertrauenswürdige KI-Führerschaft zu übernehmen.

Auf globaler Ebene könnte das AI ACT von anderen Rechtsprechungen als Referenzmodell für die Regulierung von KI betrachtet werden. Sie wird sicherlich Länder beeinflussen, die auf dem europäischen Markt interagieren oder verkaufen wollen oder dies traditionell tun. Es ist sehr wahrscheinlich, dass jedes Land, das traditionell viel auf dem EU-Markt verkauft, bei der Gesetzgebung für sich selbst die Angemessenheit mit dem AI ACT anstreben wird. Wir haben bereits in vielen Ländern eine Angemessenheit mit der DSGVO festgestellt. Es ist logisch, dass diese Rechtsordnungen über ähnliche oder gleichartige Rechtsvorschriften für die KI verfügen, um die gesetzgeberische Belastung zu verringern. Dies wird als Brüsseler Effekt bezeichnet. Ich denke, dass dies auch für den AI ACT gelten sollte.

Ich schätze mich sehr glücklich, Teil der EU zu sein, da ich weiß, dass es immer Bemühungen geben wird, meine Rechte in der digitalen Welt zu schützen, vor allem weil es immer ein Spannungsverhältnis zwischen Innovation und dem Schutz der Grundrechte in Bezug auf neue Technologien gegeben hat. Dies führt oft zu der Befürchtung, dass andere Rechtsordnungen auf der ganzen Welt einen Wettbewerbsvorteil gegenüber Europa in Bezug auf Innovationen erlangen, da sie einen milderen Ansatz als den europäischen verfolgen, aber ich denke, dass wir mit der DSGVO gezeigt haben, dass wir hier in Europa tatsächlich innovativ sein und gleichzeitig die Rechte der Bürger schützen können. Die DSGVO hat das Vertrauen und den Ruf Europas gestärkt, und das wird wahrscheinlich auch mit dem KI-Gesetz der Fall sein. Wir sollten zuversichtlich sein, was die Richtung angeht, die das KI-Gesetz in Zukunft einschlagen wird. Es wird wahrscheinlich fünf Jahre dauern, bis wir die tatsächlichen Vorteile des Gesetzes sehen und wie es in den verschiedenen Rechtsordnungen weltweit umgesetzt wird, aber ich denke, dass Europa stark davon profitieren wird.

Es gibt bereits viele konkrete Fälle, in denen Menschen schwer geschädigt wurden, weil KI-Systeme nicht angemessen und mit wenig Rücksicht auf die Menschen, die sie nutzen, eingesetzt wurden. Ich erkenne an, dass es derzeit einen globalen Innovationswettlauf zwischen Ländern gibt, und das ist gut für die Menschheit, aber es ist wichtig, dies mit Datenschutz und digitalen Rechten ins Gleichgewicht zu bringen, da dies schwerwiegende Auswirkungen für Einzelpersonen haben kann.

Wir haben das Beispiel des Kindergeldfalls in den Niederlanden, der sich vor kurzem ereignet hat. Ein KI-System in den Niederlanden beschuldigte eine große Anzahl von Personen des Betrugs, was sich aufgrund eines voreingenommenen KI-Systems als nicht korrekt herausstellte. Der Skandal brachte die Regierung 2021 zu Fall, und das buchstäblich, weil niemand die Verzerrungen in den Algorithmen des Kindergeldsystems aufgedeckt hatte. Dieses System verstieß gegen die DSGVO, da alle automatisierten Entscheidungsfindungssysteme von Menschen überwacht werden müssen. Es ist wichtig, sich immer vor Augen zu halten, dass Algorithmen nur so zuverlässig sind wie die Menschen, die sie entworfen haben. Letztendlich handelt es sich um eine Technologie, die anfällig für menschliches Versagen ist.

Die US-amerikanischen KI-Systeme, die die Rückfallwahrscheinlichkeit von Strafgefangenen bewerten, sind ein weiteres Beispiel für KI-Systeme, die gezeigt haben, dass sie eingebaute Verzerrungen aufweisen. Das Ergebnis der von diesen KI-Systemen vorgenommenen automatisierten Bewertung der Rückfälligkeit hat rechtliche Auswirkungen für den Einzelnen. Diese automatisierten Entscheidungen haben sich als äußerst problematisch für Menschen erwiesen, die versuchen, ihr Leben zu verbessern. Die Entscheidungen, die diese KI-Systeme über Einzelpersonen und ihre Rückfallwahrscheinlichkeit treffen, können ernsthafte Auswirkungen auf das Leben einer Person haben. Glücklicherweise würden solche Systeme, wenn sie in Europa existieren würden, aufgrund ihrer potenziell sehr großen Auswirkungen auf die Zukunft des Einzelnen nach dem europäischen KI-Gesetz als KI-Systeme mit hohem Risiko eingestuft werden.

Ich arbeite derzeit mit vielen Menschen zusammen, die Algorithmen für Banken und Finanztechnologien schreiben. Viele der derzeit verwendeten Geschäftsmodelle erlauben es Menschen nicht, die Entscheidungsfindungssysteme der KI zu beaufsichtigen. Tatsächlich eliminieren Unternehmen häufig Menschen, um Kosten zu sparen. Es ist billiger, alles zu automatisieren. Ironischerweise versucht Europa, die Fintech-Industrie mit dem Ziel zu entwickeln, Weltmarktführer hervorzubringen, und es gibt eine klare Unterstützung dafür, die Entwicklung von Fintech-Geschäftsmodellen zu ermöglichen, bei denen es keine menschliche Aufsicht gibt, was gegen die DSGVO verstößt. Wenn heute beispielsweise jemand einen Hypothekenkredit sucht, werden seine Daten automatisch in ein System eingespeist, das bewertet, ob diese Person ein guter Kandidat für einen Kredit ist. Sehr häufig wird diese Bewertung nicht von einem Bankangestellten beaufsichtigt, und diese Situation kann daher schwerwiegende Folgen für die interessierte Person haben. Ein Bankmanager wäre besser geeignet, um zu beurteilen, ob die Person vertrauenswürdig ist und ob sie die Rückzahlung wahrscheinlich leisten wird. Wenn diese Personen, die einen Kredit beantragen, keine Wohnung bekommen können, müssen sie für den Rest ihres Lebens mieten, weil sie keinen Kredit bekommen können. Um ehrlich zu sein, müssen wir nicht einmal auf das KI-Gesetz warten, um diese Situation zu ändern, wir können uns auf die DSGVO verlassen, um eine menschliche Aufsicht über alle automatisierten Entscheidungsfindungen zu gewährleisten. Wie wir wissen, gibt es die DSGVO schon seit Jahren, und dennoch sehen wir bis heute, wie diese Geschäftsmodelle umgesetzt werden.  Hoffen wir, dass das KI-Gesetz die Notwendigkeit einer menschlichen Aufsicht über KI-Systeme stärken wird.

Wenn Menschen sich bedroht fühlen, wenden sie sich von der Technologie ab

Wie bereits erwähnt, hat die DSGVO gezeigt, dass wir Europäer innovativ sein und gleichzeitig die persönlichen Daten der Bürger schützen können. Letztendlich werden die Vorteile des Einsatzes von KI-Systemen erheblich geschmälert, wenn die Bürger nicht geschützt werden. Aber die Menschen werden sich von der Technologie abwenden, wenn sie sich von ihr bedroht fühlen. Wenn Sie hingegen erst einmal das Vertrauen der Menschen gewonnen haben, werden sie die Technologie annehmen und Spaß damit haben.

Ich habe einen deutlichen Wandel in der Denkweise von Politikern und öffentlichen Verwaltungsbeamten festgestellt. Obwohl dieser Mentalitätswandel etwas langsamer verläuft als bei CEOs und Fachleuten aus dem Privatsektor, sehe ich eine Entwicklung.  Natürlich haben Beamte unterschiedliche Motivationen für ihre Position im öffentlichen Sektor, dennoch beginnen öffentliche Verwaltungen mit fast sechs Jahren DSGVO im Rücken nun zu erkennen, dass es einen echten Bedarf an Compliance und dem Schutz der Daten von Einzelpersonen gibt. Nach meiner eigenen Erfahrung im Bereich der Einhaltung von Vorschriften kamen vor vielleicht vier Jahren einige Leute zu ihnen und fragten: „Was ist Datenschutz? Was ist die DSGVO?“, während heute jeder Bescheid weiß und die Fragen eher lauten: „Wie setzen wir unseren Plan zur Einhaltung der Vorschriften um?“.

Nicht nur in Europa wächst das Bewusstsein für den Datenschutz, sondern auch auf globaler Ebene. Traditionell hatten die USA eine völlig andere Ideologie, was den Schutz der Privatsphäre und die Meinungsfreiheit betraf. Meiner Meinung nach beginnen sie allmählich, die Bedeutung des Datenschutzes zu verstehen, insbesondere im Hinblick auf Cybersicherheit und Betrugsbekämpfungsmaßnahmen. Europa und Amerika nähern sich in ihrem Verständnis der Bedeutung des Datenschutzes langsam an. Die Tatsache, dass der EU-US-Datenschutzrahmen erst vor wenigen Monaten, im Sommer 2023, eingeführt wurde, ist ein Beweis dafür. Ich denke, wir waren noch nie so nah an einer Zusammenarbeit mit den USA im Bereich des Datenschutzes.

Bis 2024 glaube ich, dass die Zuverlässigkeit von KI und der erklärbare Teil von KI wirklich untersucht werden müssen, denn die Tatsache, dass so große Mengen an persönlichen Daten so schnell aus dem Web gezogen und von KI verwendet werden können, macht die Frage der Zuverlässigkeit zu einer absoluten Priorität. Jetzt, da das KI-Gesetz in Kraft getreten ist, ermöglicht uns die Regulierung, mit Unternehmen, die KI entwickeln, zu interagieren und mit ihnen zusammenzuarbeiten, um Transparenz und Zuverlässigkeit in ihre Compliance-Lösungen zu integrieren, um sicherzustellen, dass ihre Kunden und die Nutzer dieser Systeme geschützt sind, und um das Risiko einer Sicherheitsverletzung, an der ihre KI-Systeme beteiligt sind, zu verringern. Verstöße wirken sich immer auf das Image des Unternehmens aus, was wiederum den Marktpreis des Unternehmens beeinflusst und so weiter.

Ich erkenne an, dass es noch große Herausforderungen gibt, um KI vertrauenswürdig zu machen und in der Lage zu sein, die Black Boxes einer großen Anzahl von Algorithmen zu erklären, aber ich denke, dass Europa wirklich an vorderster Front steht, wenn es darum geht, das Bewusstsein und die Verantwortung der Unternehmen zu stärken, um sicherzustellen, dass sie nicht nur von KI profitieren und sie nutzen können, sondern auch die Menschen vor dem Missbrauch durch KI schützen müssen.

KI-Systeme und die Bedrohung demokratischer Wahlen

Wir stellen seit vielen Jahren fest, dass KI-Systeme den demokratischen Prozess von Wahlen stören können. Der am meisten publizierte Fall war der Cambridge-Analytica-Skandal, bei dem es um die unerlaubte Sammlung und Nutzung persönlicher Daten von Millionen von Facebook-Nutzern für politische Zwecke ging. Cambridge Analytica arbeitete an politischen Kampagnen, einschließlich der US-Präsidentschaftskampagne von Donald Trump im Jahr 2016, und beschaffte und nutzte die persönlichen Daten von rund 87 Millionen Facebook-Nutzern, um das Wahlergebnis zu manipulieren.

Auch die in jüngerer Zeit durch KI und Deepfake-Technologie erzeugten Desinformationen (KI, die eingesetzt wird, um überzeugend irreführende Bilder, Audioaufnahmen und Videos zu erstellen) können den demokratischen Wahlprozess stören. Hochentwickelte KI-Tools können nun die Manipulation der Medien erleichtern, insbesondere mit dem Aufkommen realistischer Deepfakes. Im Jahr 2024 werden in einer Reihe von Ländern Wahlen stattfinden, darunter die USA, Großbritannien und die Europäische Union, und es ist mehr als wahrscheinlich, dass böswillige Stellen versuchen werden, die Ergebnisse zu manipulieren. Da die vorhandenen Erkennungsinstrumente für diese Art von Angriffen unzureichend sind, wird es immer notwendiger, dass die Politiker in Echtzeit reagieren, um die Verbreitung von Desinformationen zu verhindern. Es ist auch wichtig, mit den Unternehmen sozialer Netzwerke zu interagieren, dafür zu sorgen, dass sie weiterhin in Erkennungsmöglichkeiten investieren, und die Entwicklung ihrer Strategien zur Abschwächung von Desinformationskampagnen zu prüfen. Insgesamt glaube ich, dass die Gewährleistung der Integrität demokratischer Prozesse angesichts der fortgeschrittenen Manipulation durch KI in diesem Jahr eine beträchtliche und wachsende Herausforderung für eine Reihe von Regionen auf der ganzen Welt darstellen wird.

Kommentare

Werden Sie Abonnent, um einen Kommentar schreiben zu können.
Zusammenfassung

"Sei gierig, wenn andere ängstlich sind" Das Jahr 2024 zeichnet sich vor allem durch seinen überfüllten Wahlkalender aus: Fast drei Milliarden Menschen werden dieses Jahr in 76 Ländern ihre Stimme [...]

Geopolitik: Asymmetrische Neuzusammensetzung 1 - Der Nebel der US-Wahlen stört die globale Sicht Man muss sich vergegenwärtigen, was diese Unvorhersehbarkeit des amerikanischen Wahlergebnisses bedeutet. Das politische System der USA, das [...]

Bitcoin: zweischneidige Institutionalisierung Wie bereits in den Empfehlungen erwähnt, wird die Anerkennung der Legitimität von Bitcoin durch die USA über ETFs ein zweischneidiges Schwert sein: Sie wird den Wert und [...]

Weitere Artikel
GEAB
15 Apr. 2025

Investitionen: Navigieren in systemischen Übergängen

EMPFEHLUNGEN Wie bei jeder Börsenkrise werden Werte den Besitzer wechseln. Da die Krise weitgehend verursacht ist, ist es wahrscheinlich, dass staatliche Strukturen - allen voran die USA - sie nutzen [...]

GEAB
15 Apr. 2025

Auf dem Weg zum Tech-Feudalismus: Die fünf Kasten der postindustriellen Gesellschaft, laut GEAB

VISION Nachdem GEAB fast 20 Jahre lang die Phasen des Zusammenbruchs des westlich-zentrierten Systems vorweggenommen hat, sehen wir es nun als unsere Pflicht an sowohl weiterhin die sich anbahnenden Krisen [...]

GEAB
15 Apr. 2025

Seismische Krise global: Was, wenn die Erdkruste sich wehrt?

HERAUSFORDERUNG Das Schreckgespenst der Klimakrise könnte bald durch das Schreckgespenst einer "globalen Erdbebenkrise" ersetzt werden, d. h. einer allmählichen Zunahme der Anzahl und Schwere von Erdbeben. Zusammen mit der Zunahme [...]