EU AI Act: 30 Prozent der Projektkosten für Compliance

Bei einer SAS-Diskussion zum EU AI Act in Frankfurt warnten Experten vor hohen Umsetzungskosten und Wettbewerbsnachteilen. Etwa 30 Prozent der KI-Projektkosten entfallen auf Compliance. Besonders Mittelständler kämpfen mit komplexen Anforderungen.

SAS-Paneldiskussion mit (v.l.) Gloria Miller, Reggie Townsand und Daniel AndrichSAS

Das EU-Gesetz über Künstliche Intelligenz verändert bereits heute die Arbeit deutscher Unternehmen fundamental. Doch wie hoch sind die tatsächlichen Kosten? Welche organisatorischen Anpassungen sind nötig? Und droht Europa im internationalen Wettbewerb zurückzufallen? Diese Fragen diskutierten drei Experten bei einer Podiumsdiskussion zum AI Act anlässlich der SAS Executive Dinner Conversations, einer regelmäßigen Einladungsveranstaltung, dieses Mal im Vorfeld der Konferenz SAS Innovate on Tour in Frankfurt – mit teils überraschenden Einblicken aus der Praxis.

Compliance frisst ein Drittel des Projektbudgets

Gloria Miller, Unternehmensberaterin und Gründerin der maxmetric GmbH, hat in ihren KI-Projekten konkrete Erfahrungen mit den neuen Anforderungen gesammelt. Ihr ernüchternder Befund: „Etwa 30 Prozent der Gesamtkosten eines KI-Projekts fallen mittlerweile für die Umsetzung der EU-AI-Act-Anforderungen an.“ Diese Kosten entstünden hauptsächlich in der Entwicklungsphase – eine Investition, die sich später durch niedrigere Betriebskosten auszahle.

Miller teilt die Compliance-Kosten in zwei wesentliche Bereiche auf: Entwicklungs- und Betriebskosten. Dabei gelte die Faustregel: Je besser man im Frontend arbeite, desto niedriger seien die Betriebskosten. Umgekehrt könnten Unternehmen sehr niedrige Implementierungskosten haben, müssten dann aber mit sehr hohen Betriebskosten rechnen – ein Szenario, das niemand wolle.

Der EU AI Act dreht sich nach Millers Einschätzung vor allem um zwei Kernaspekte: Transparenz und Sicherheit. Bei der Transparenz gehe es um Datenverwaltung, die Nachvollziehbarkeit der Modellentwicklung und die Vermeidung von Verzerrungen. Bei der Sicherheit stünden Cybersecurity-Aspekte der verwendeten Plattformen und Infrastruktur im Mittelpunkt.

Sechs Organisationsbereiche im Umbruch

Miller identifiziert sechs Organisationsbereiche, die sich grundlegend ändern müssen: Compliance und rechtliche Aspekte, Beschaffung, Sicherheit und Cybersicherheit, Transparenz der eingesetzten Tools, KI-Kompetenz der Mitarbeiter und die gesamte Projektführungsstruktur.

Besonders komplex werde die Beschaffung, da Transparenz über Datenherkunft und Modellentwicklung gefordert sei. Miller erläutert: „Es hängt stark davon ab, welche Funktionen und Fähigkeiten die Technologie bietet, die Sie verwenden. Verfügen Sie über Funktionen rund um Governance und Datenherkunft, mit denen Sie ein Datenblatt automatisch erstellen können? Verfügen Sie über Funktionen, mit denen Sie Verzerrungen in Modellen bewerten können?“

Dabei stelle sich auch die geografische Frage: Wo befinden sich die verwendeten Cloud-Technologien und großen Sprachmodelle? Haben sie ihren Sitz in Europa oder den USA? Nicht alle Angebote seien in europäischen Ländern verfügbar, was die Beschaffungsstrategie zusätzlich kompliziere.

Ein weiterer kritischer Punkt sei die KI-Kompetenz: Jeder, der an KI-Projekten beteiligt ist, müsse über das Thema Bescheid wissen, seine Rolle verstehen und die praktische Anwendung beherrschen. Das erfordere eine umfassende HR-Komponente für Schulung und Orientierung der Mitarbeiter.

Auch die Projektdurchführung selbst ändere sich fundamental: „Die Art und Weise, wie wir KI-Modelle bewerten, unterscheidet sich völlig von der Art und Weise, wie wir die vorherige IT-Infrastruktur getestet haben. Der gesamte Validierungsprozess hat sich geändert.“

Ernüchternder Umsetzungsstand

Allerdings zeigt sich Miller überrascht über den aktuellen Umsetzungsstand in deutschen Unternehmen: „Weniger als die Hälfte der Projekte, an denen ich beteiligt bin, beschäftigt sich derzeit ernsthaft mit der EU-Verordnung.“ Die meisten Unternehmen hätten andere regulatorische Prioritäten wie DORA (Digital Operational Resilience Act) oder die DSGVO.

Die Unternehmen, die sich mit dem AI Act beschäftigen, befänden sich meist noch im ersten Stadium: Was ist eine Risikobewertung? Wie führt man Folgenabschätzungen durch? Miller beobachtet, dass die meisten erst langsam anfingen, über die Implikationen nachzudenken – obwohl ab Februar bereits erste Alphabetisierungs-Anforderungen greifen.

Deutschlands strukturelle KI-Herausforderungen

Daniel Andrich, Geschäftsführer der American Chamber of Commerce in Germany e.V., sieht erhebliches Potenzial für den deutschen KI-Markt: „Internationale Statistiken schätzen das aktuelle Marktvolumen in Deutschland auf zehn Milliarden Dollar mit einem jährlichen Wachstumspotenzial von mehr als 25 Prozent.“ Das spiegle sich auch im Engagement vieler US-Unternehmen wider, die hier investierten.

Besonders das starke verarbeitende Gewerbe – von der Automobilindustrie über den Maschinenbau bis zur Elektronik- und Chemieindustrie – mit einem BIP-Anteil von 23 bis 24 Prozent biete Chancen für KI-Anwendungen. Das Potenzial sei noch größer, rechne man industrienahe Dienstleistungen hinzu, wo weitere Effizienzsteigerungen durch KI möglich seien.

Dennoch warnt Andrich vor drei strukturellen Problemen, die Deutschlands Wettbewerbsfähigkeit beeinträchtigen: „Wir haben eine überbordende Bürokratie auf Bundes- Länder- und lokaler Ebene. Dazu kommen noch die EU-Vorschriften, die vor Ort umgesetzt werden müssen.“ Zweitens seien die Produktionskosten in Deutschland sehr hoch; besonders die für Energie stellten für Rechenzentren ein großes Problem dar. Drittens herrsche ein gravierender Fachkräftemangel.

Zu diesen Herausforderungen käme die Regulierung durch den AI-Act hinzu. Andrich betont, dass Unternehmen erhebliche Ressourcen benötigten, um die Vorschriften umzusetzen, während gleichzeitig eine riesige Nachfrage nach Innovationen bestehe. Er fragt sich, wie kleinere Unternehmen ohne große Compliance-Abteilungen diese Anforderungen stemmen sollen und welche Auswirkungen das auf ihre Geschäftsmodelle haben werde.

Transatlantische Spannungen befürchtet

In den USA werden zurzeit viele Themen gleichzeitig neubewertet – nicht nur tarifäre oder nichttarifäre Handelshemmnisse, sondern auch Verteidigungsausgaben, Währungs- und Steuerthemen sowie andere Aspekte, wie eben die Auswirkungen der europäischen KI-Regulierung. „Wir werden sehen, wie das aus US-Perspektive wahrgenommen wird und ob sich das auf die laufenden Zoll-Verhandlungen der EU mit der US-Regierung auswirken wird. Die zunehmende Komplexität macht die Verhandlungen schwerer.“

Andrich appelliert an die deutschen und europäischen Entscheidungsträger, sehr vorsichtig vorzugehen mit dem, was sie den Unternehmen aufbürden, da Deutschland wieder auf Wachstumskurs kommen müsse.

„Innovation und Governance bedingen sich gegenseitig“

Reggie Townsend, Leiter der globalen SAS Data Ethics Practice, widerspricht entschieden der häufig geäußerten Kritik, Regulierung bremse Innovation: „Ich lehne diese Behauptung ab. Wie bei einem Fluss definieren sich Ufer und Wasser gegenseitig – ohne Ufer gibt es eine Flut, ohne Wasser nur langweiliges Gestein. Das Gleiche gilt für Governance und Innovation.“

Townsend argumentiert, dass die Frage schon immer gewesen sei: Wie viel Regulierung und wie schnell? KI als neue Technologie sei sehr schwer mit spezifischen Regeln zu fassen, da sich die Technologie so schnell entwickle. Was vor drei Jahren im EU-AI-Gesetz vorgesehen war, sei heute bereits altmodisch.

Er sieht in der EU-Regulierung sogar eine Chance: Die EU habe den ersten Schritt getan, auch wenn sie möglicherweise Teile davon zurücknehmen und anerkennen müsse, dass die Durchsetzung schwieriger werde als gedacht.

USA-EU: Kleinere Kluft als erwartet

Townsend sieht auch die vermeintlich große Kluft zwischen EU und USA weniger dramatisch als oft dargestellt: „Die politische Rhetorik wird härter, aber man muss sich die Details ansehen.“ Die erste Trump-Regierung habe das National AI Office gegründet und einen nationalen KI-Beratungsausschuss eingerichtet, dem er selbst angehört habe. Die Biden-Regierung habe dann viel von dieser Arbeit übernommen.

„Wenn Sie die Trump-Exekutivverordnung von 2017 und die Biden-Exekutivverordnung nehmen, die Namen entfernen, sieht es so aus, als würden Sie dieselbe Geschichte lesen“, erklärt Townsend. Auch die neue Trump-Administration hebe nicht die gesamte KI-Politik auf, sondern drehe sich um und sage: „Wir wollen den Rest der Nation zu diesen besorgniserregenden Dingen um Rat fragen.“

Besonders interessant findet Townsend die neue Exekutivverordnung zu Bildung und KI-Kompetenz. Genau darum gehe es auch in Artikel 4 des EU-AI-Gesetzes. In den Hintergrundgesprächen der Praktiker gebe es zwar Probleme, aber nicht die große Kluft, die die politische Rhetorik suggeriere.

Als weiteren wichtigen Akteur bringt Townsend Japan ins Spiel, das einen sanfteren Ansatz verfolge, aber mit der Idee, Innovationen unter Regierungsführung voranzutreiben. Das könnte eine interessante Alternative werden.

Strategische Neuausrichtung notwendig

Für Unternehmen hat Townsend eine klare Botschaft: „Sie können nicht mehr so arbeiten wie früher – aber das gilt für uns alle. Die Welt verändert sich.“ Statt reiner KI-Strategien empfiehlt er branchenspezifische Ansätze: Wenn man Einzelhändler, Gesundheitsdienstleister oder Finanzdienstleister sei, bleibe man in diesen Bereichen und finde heraus, wie KI dort eine Rolle spiele – meist gehe es um mehr Effizienz und Produktivität bei dem, was man bereits tue.

Townsend warnt vor überzogenen Erwartungen: Niemand sollte versuchen, ein LLM-Unternehmen zu werden – „der Zug ist abgefahren“. Stattdessen solle man sich auf Anwendungen konzentrieren, die auf diesem Fundament aufbauen. Für mehr Effizienz im Geschäftsbetrieb empfiehlt er agentische KI und die Automatisierung von Workflows.

Gleichzeitig müssten sich Unternehmen mit den gesellschaftlichen Auswirkungen auseinandersetzen: Wenn die gesamte Produktivität und Kognition von KI kommen könne, warum brauche man dann noch Mitarbeiter? Das seien die größeren Fragen, mit denen sich Regierungen befassen müssten, aber Unternehmensleiter spielten dabei eine Rolle und müssten sicherstellen, dass ihre Stimmen in diesen Gesprächen gehört würden.

Leadership als Schlüssel zum Erfolg

Einig sind sich alle drei Experten über die zentrale Rolle der Mitarbeiterqualifikation und Führung. Andrich betont: „Es ist entscheidend, in die Fähigkeiten Ihrer Mitarbeiter zu investieren, sie zu stärken und beim Umgang mit diesen Veränderungen zu unterstützen.“

Miller ergänzt die organisatorische Perspektive: Unternehmen bräuchten Champions und Mitarbeiter, die gründlich verstünden, was KI sei. „Nicht jeder versteht das, und es bedeutet für verschiedene Menschen verschiedene Dinge.“ Diese Experten müssten in der Lage sein, bei Projekten zu coachen und zu erklären, was Compliance für das jeweilige Projekt bedeute.

Besonders wichtig sei es, Mitarbeiter zu haben, die sowohl die technische als auch die geschäftliche Seite verstehen könnten: „Wie kann KI den Geschäftswert steigern? Das ist ein ganz neuer Bereich. Die Technologie einfach zu haben, wird weder interessant noch hilfreich sein.“

Townsend fasst es pointiert zusammen: „Das Gespräch über KI ist wirklich ein Gespräch über Leadership. Menschen sind nach wie vor wichtig – entsprechend sollte die Führungsriege auch mit ihrer Belegschaft umgehen.“

Anpassung alternativlos, Potenziale vorhanden

Die Botschaft der Experten ist eindeutig: Das EU-KI-Gesetz bringt erhebliche Herausforderungen mit sich, aber Unternehmen haben keine Alternative zur Anpassung. Miller bringt es auf den Punkt: „KI-Lösungen fallen nicht vom Himmel. Es sind Projekte, und Sie investieren in Projekte. Finden Sie die richtigen Leute, die das Thema kennen und Sie unterstützen können.“ Auch in der Diskussion unter den anwesenden Gästen der Executive Dinner Conversations war ein Konsens herauszuhören – der AI Act ist muss als „Business Driver“ verstanden werden, und nicht als Bremsklotz.

Entscheidend wird sein, ob Deutschland die Balance zwischen Compliance und Wettbewerbsfähigkeit findet – und dabei seine traditionellen Stärken in der Industrie nutzen kann. Der AI Act ist Realität, die Umsetzung läuft bereits. Jetzt geht es darum, aus der regulatorischen Herausforderung einen strategischen Vorteil zu machen.