Die EU will mit einem Gesetz zur „Regulierung von automatisierten Entscheidungssystemen“ den Einsatz von Künstlicher Intelligenz (KI) regulieren. Ein Entwurf dafür ist bereits ausgearbeitet. Der Plan: Je größer der Einfluss des KI-Modells auf das Leben einzelner oder mehrerer Personen ist, desto höher sollen auch die regulatorischen Anforderungen für den Einsatz und die Entwicklung des KI-Modells sein. Sollte das Gesetz dann nicht eingehalten werden, drohen enorme Strafen für Unternehmen: Bis zu 6 Prozent des Jahresumsatzes. Zusätzlich sollen laut dem Gesetzesentwurf KI-Modelle im Bereich kritischer Infrastrukturen oder ähnlicher risikobehafteter Gebiete einer Genehmigungspflicht unterliegen.
Der Status Quo: Ungenügend
Sollte der Gesetzesentwurf abgesegnet werden, wird dies viele Unternehmen vor enorme Herausforderungen stellen. Denn wenn es um den verantwortungsvollen und ethischen Umgang mit KI geht, besteht großer Nachholbedarf. Das zeigt die Studie „The State of Responsible AI: 2021“ von Corinium und FICO, in der 100 Führungskräfte aus dem Bereich Analytik und Daten befragt wurden:
- 65 % der befragten Unternehmen können nicht erklären, wie ihre Modelle Entscheidungen treffen.
- 78 % der Befragten finden es schwierig, Unterstützung von Führungskräften für die Priorisierung von KI-Ethik und verantwortungsvollen KI-Praktiken zu bekommen.
- Nur 22 %t geben an, dass ihr Unternehmen ein Gremium eingerichtet hat, das sich mit Fragen der KI-Ethik auseinandersetzt.
- 68 % der Befragten halten die Compliance-Prozesse in ihren KI-Projekten für ineffektiv.
Egal, ob der Gesetzentwurf nun Realität wird oder nicht: Der Einsatz von Künstlicher Intelligenz sollte immer verantwortungsvoll und unter ethischen Gesichtspunkten stattfinden. Wie aber schaffen Unternehmen das?
Nachholbedarf bei Ethik durch Design – ein Muss bei der KI-Entwicklung
Damit ein KI-Modell über den gesamten Lebenszyklus hinweg ethischen Anforderungen genügt, muss sichergestellt sein, dass es keinen Verzerrungen unterliegt oder diese herbeiführt. Doch damit ist es nicht weit her, wie die Studie auch zeigt: So verwenden Unternehmen zwar eine Reihe von verschiedenen Ansätzen, um die Ursachen für Verzerrungen bei KI-Modellen zu beseitigen. Aber nur wenige Unternehmen verfügen über ein umfassendes Set von Kontrollmechanismen. Die Bewertung der Fairness von Modellergebnissen ist die beliebteste Maßnahme in den Unternehmen (59 %). Die Hälfte gibt an, mit einer kodifizierten mathematischen Definition für Datenverzerrungen aktiv nach Unwuchten in unstrukturierten Datenquellen zu suchen. Lediglich 38 Prozent der Befragten haben Schritte zur Verringerung von Datenverzerrungen in die Modellentwicklung integriert. Es verfügen also nur wenige Unternehmen über einen wirklichen "Ethik durch Design"-Ansatz, der KI-Modelle routinemäßig auf Verzerrungen testet und, wo nötig, korrigierend wirkt.
Stakeholder und verantwortungsvolle KI
Doch noch ein anderer Schuh drückt die Unternehmen in Sachen ethischer KI: Viele Stakeholder betrachten ethische KI als Hemmschuh für das Innovationstempo. So ist es für 62 Prozent der Befragten in der FICO Corinium-Studie eine Herausforderung, einerseits verantwortungsvoll und ethisch korrekt in Bezug auf KI zu handeln und andererseits Innovationen schnell auf den Markt zu bringen und Stakeholder zufrieden zu stellen. 78 Prozent gaben sogar an, dass es schwierig sei, Unterstützung der Geschäftsführung für die Priorisierung von KI-Ethik zu erhalten. Führungskräfte in KI-Abteilungen tun daher gut daran, den anderen Stakeholdern die Auswirkungen aufzuzeigen, die undurchdachte KI-Modelle nach sich ziehen können. Dazu müssen Geschäftsherausforderungen in Analytik-Problemstellungen übersetzt und Stakeholder regelmäßig in die Diskussion um KI-Modelle einbezogen werden. So wird ihre Wahrnehmung für Probleme geschärft, die aus einer unzureichenden Auseinandersetzung mit KI-Modellen resultieren können.
Über jeden Zweifel erhaben: Die Blockchain
Der Blockchain-Ansatz könnte genau dabei helfen. Denn wenn jeder Schritt der Entwicklung und des Einsatzes eines KI-Modells in einer Blockchain hinterlegt ist, wird die Modell-Überwachung vereinfacht. Standardisierte Überprüfungen lassen sich so problemlos implementieren. Damit bietet die Blockchain-Technologie eine gute Basis für die ethische Ausrichtung künstlicher Intelligenz. Nicht nur während der Modellentwicklung, sondern auch im Einsatz bis hin zum Auslauf eines Modells können hier alle Stationen und Erwägungen für alle Beteiligten nachvollziehbar dargestellt werden.
Egal, ob es um die Überprüfung latenter Merkmale, Verzerrungstests oder Infos darüber, welches Teammitglied welche Tests oder Veränderungen vorgenommen hat, geht – in einer Blockchain sind alle Informationen schnell einsehbar. Dies ermöglicht nicht nur die Durchsetzung von unternehmensinternen KI-Entwicklungsstandards, sondern macht es auch einfach, anderen Personengruppen den nötigen Einblick in Projekte zu geben. So erhalten auch Stakeholder, die keine Datenwissenschaftler sind, Einblicke in die „Blackbox“ KI. Damit vereinfacht die Blockchain-Technologie die verantwortungsbewusste Entwicklung ethischer KI für alle Beteiligten. Deshalb lohnt sich ein Blick auf diese Lösung allemal – egal, ob die geplanten, strengeren Regularien für den Umgang mit künstlicher Intelligenz nun kommen oder nicht. Wir dürfen auf die weitere Entwicklung in Sachen KI und Ethik gespannt sein.
Infografik: Was Führungskräfte über KI-Ethik glauben (Quelle: Studie „The State of Responsible AI: 2021“)
Scott Zoldi ist Chief Analytics Officer bei FICO und verantwortlich für die analytische Entwicklung der Produkte und Lösungen des Unternehmens. Er ist federführend für die Ausarbeitung von Patenten zuständig. Seit seinem Start bei FICO hat Scott Zoldi bereits 105 Patente verantwortet, von denen 53 erteilt und 52 angemeldet wurden. Er ist aktiv an der Entwicklung neuer Big-Data-Analytikprodukte und -Analytikanwendungen beteiligt. Viele dieser Lösungen nutzen Streaming-Analytik-Innovationen wie adaptive Analytik, Collaborative Profiling und selbstkalibrierende Analytik. In jüngster Zeit konzentriert sich Scott Zoldi auf Anwendungen der selbstlernenden Streaming-Analytik zur Echtzeiterkennung von Cyberangriffen. Er ist Mitglied in den Verwaltungsräten von Software San Diego und des Cyber Center of Excellence. Seinen Doktortitel erhielt Scott Zoldi in theoretischer und rechnergestützter Physik an der Duke University in Durham, North Carolina.
Kontakt: LinkedIn
Aktuelle Beiträge
-
Künstliche Intelligenz braucht ethische Leitplanken
-
Alternative Data: Warum lohnt sich der Blick über den Daten-Tellerrand?
-
Data Science-Projekte: Drei Hindernisse auf dem Weg zum Erfolg
-
"Es fällt vielen Branchen schwer, die Potenziale der Digitalisierung zu erkennen."
-
Die IBM KI-Leiter: Mit KI ganz nach oben
-
Von einfachen Data Catalogs zu intelligenten Systemen
BI & Big Data Events
News
Weitere News-
Neues TDWI Poster "Process Mining - Datenanalyse in Prozessen zur digitalen Prozessoptimierung"
-
Prognosen 2022: So verschafft smarte Datennutzung Unternehmen Wettbewerbsvorteile
-
Flughafen München: Weniger Lärm und Schadstoffe dank Data Analytics
-
Digitalisierung: Sieben von zehn Deutschen halten Politik für ahnungslos
-
CoPlanner erweitert seine Geschäftsführung
-
Die Kaufprioritäten der Analytics- und BI-Käufer sollten datengetrieben sein