Title
Der EU AI Act und andere relevante, gesetzliche Vorgaben
Blog Image
Themenreihe Esker Talks KI, Teil 2
In unserer Themenreihe zur Künstlichen Intelligenz sind wir in der letzten Woche auf die verschiedenen Technologien der KI eingegangen und welche Vorteile sie jeweils für die Buchhaltung bieten. Die Technologien bergen großes Potential und können viel bewirken. Vor diesem HIntergrund hat die Europäische Union im März 2024 einen Erlass zur Regulierung von Künstlicher Intelligenz bewilligt - den EU AI Act. So soll länderübergreifend sichergestellt sein, dass Künstliche Intelligenz weiterhin als Unterstützung für Menschen eingesetzt wird und nicht als Ersatz für sie. Die Regularien werden seither wirtschaftsseitig genau beobachtet und es muss auch auf deutscher Ebene geprüft werden, welche Gesetze angepasst werden müssen und wie die Überwachung stattfinden soll. Was reguliert der EU AI Act? Welche Regulierungsmechanismen sind in Deutschland bereits vorhanden?
Der EU AI Act: Sicherstellung des EU-weiten, sicheren Gebrauchs von Künstlicher Intelligenz
Der EU AI Act ist ein umfassendes Regelwerk der Europäischen Union, das den Einsatz von Künstlicher Intelligenz (KI) in Europa reguliert. Am 06. Dezember 2023 wurde er pro forma, im März 2024 endgültig von den Mitgliedsstaaten verabschiedet und gilt als Basis für alle länderweiten Gesetze zur Künstlichen Intelligenz. Die jeweilige Ausgestaltung der Regelungen zum Gebrauch von KI - gerade im B2B-Umfeld - wird auf Bundes- oder Länderebene entschieden. Hier sind die wichtigsten Punkte:
EU Office für Künstliche Intelligenz:
Der EU AI Act sieht ein EU-weites Büro für Künstliche Intelligenz vor, das momentan in der Entstehung ist. Dieses Büro wird als zentrale Anlaufstelle für KI-Entwicklung, -Forschung und -Regulierung dienen. Es wird die Entwicklung von Leitlinien, Best Practices und Empfehlungen für den verantwortungsvollen Einsatz von KI unterstützen. Zudem ist es Anlaufstelle für alle Einwände und Klagen. Auch auf Länderebene wird es öffentliche Einrichtungen geben.
Kategorisierung der Anwendungen in vier Risikoklassen:
Künstliche Intelligenz ist nicht gleich Künstliche Intelligenz. Je nach Branche, Anwendungsfeld, Zugang und Verarbeitung zu Informationen und Aufgaben der Technologie, wird sie in verschiedene Risikoklassen eingeteilt, die nach ihrem Einfluss reglementiert und überwacht werden:
Nicht akzeptierbares Risiko: KI-Anwendungen, die eine unmittelbare Gefahr für Leben, Gesundheit, Freiheit oder Grundrechte darstellen, sind nicht akzeptabel.
Hohes Risiko: KI-Systeme, die in bestimmten kritischen Bereichen wie Gesundheitswesen, Verkehr oder öffentlicher Verwaltung eingesetzt werden, unterliegen strengen Regulierungen. Hierzu gehören transparente Algorithmen, Datenschutz und menschliche Aufsicht.
Allgemeiner Zweck und generative KI: KI-Anwendungen außerhalb der oben genannten Kategorien unterliegen weniger strengen Regeln, müssen jedoch weiterhin transparent und verantwortungsbewusst ausgestaltet sein.
Geringes Risiko: KI-Anwendungen mit geringem Risiko, wie Chatbots oder einfache Apps, sind gering reguliert und können transparent ohne große Hürden angewandt werden.
Um sicherzustellen, dass beispielsweise die menschliche Aufsicht gewährleistet werden kann, müssen alle Daten und Informationen, die auf KI basieren oder durch sie bearbeitet werden, kenntlich gemacht sein. Das gilt für alle Anwendungen, die KI nutzen. Esker löst dies mit dem Hinweis auf die eingesetzte KI-Technologie, sobald ein Teammitglied mit der Maus über die relevante Stelle hovert. So obliegt die letzte Entscheidungsinstanz, ob der KI vertraut wird, immer den Menschen, die die Software nutzen.
Zudem wird die sichere Nutzung von Daten durch die Datenschutzgrundverordnung (DSGVO) auch für die Künstliche Intelligenz gewährleistet. Die DSGVO wird - mit all ihren relevanten Punkten - im Coding der KI berücksichtigt, wodurch der bereits bestehende Datenschutz nicht beeinträchtigt ist.
Es gilt in Zukunft also neue Regeln zu beachten, die bei der Arbeit mit Künstlicher Intelligenz gelten. Der EU AI Act wird in den kommenden zwei Jahren vollständig in Kraft treten. Während dieser Übergangsfrist wird es Unternehmen möglich sein, ihre KI zu prüfen und bei Bedarf Änderungen vorzunehmen. Die Künstliche Intelligenz soll weiterhin eine sehr gute Option zur Unterstützung der Teams in Unternehmen sein und monotone und fehleranfällige manuelle Tätigkeiten übernehmen und zugleich fundierte Analysen und Forecasts liefern.
Möchten Sie erfahren, wie Esker Synergy AI Ihre Teams aus Customer Service, Kreditoren- und Debitorenbuchhaltung dabei unterstützt, bestmögliche Ergebnisse zu liefern? Erfahren Sie mehr.
Verpassen Sie nicht die zweite Folge von Esker Talks mit dem Experten Prof. Dr. Steffen Herbold (Leiter des Instituts für AI Engineering an der Universität Passau), Dr. Rafael Arto-Haumacher, dem Esker Country Manager Deutschland und Maxi Kleinen, der Head of Professional Services bei Esker Deutschland. Im Gespräch erklären die drei die aktuellen und kommenden Vorgaben zu KI und inwieweit diese die aktuelle Nutzung beeinträchtigen - oder eben auch nicht.
Zur zweiten Folge von Esker Talks KI: