Genauso wie die neuesten Durchbrüche in der Künstlichen Intelligenz (KI) weltweit Aufmerksamkeit erregen, haben sie auch Diskussionen über die ethischen Fragen ausgelöst, die diese intelligente Technologie aufwirft. Zu diesen Fragen gehören Vorurteile, Datenschutz, Fehlinformationen, Transparenz, Sicherheit und der Verlust von Arbeitsplätzen. Laut einer aktuellen Umfrage von Deloitte sind die beiden Hauptanliegen der Führungskräfte hinsichtlich ethischer Fehltritte Rufschädigung und menschlicher Schaden. Trotzdem berichtet der MIT Technology Review, dass 81 % der Führungskräfte glauben, dass KI einen wesentlichen Wettbewerbsvorteil für ihr Geschäft darstellt, und Umfragen zeigen, dass etwa die Hälfte der Unternehmen weltweit derzeit irgendeine Form von KI nutzt.
Einige Leitplanken werden bereits durch Gesetze wie das europäische KI-Gesetz konstruiert, um KI in eine ethische Richtung zu lenken. Andere Regionen setzen ähnliche Strukturen ein, um Bürger*innen zu schützen und gleichzeitig Unternehmen die Nutzung der Vorteile der Technologie zu ermöglichen. Doch die Implementierung moralischer und ethischer Werte in KI-Systeme, insbesondere in Entscheidungskontexten mit erheblichen Konsequenzen, stellt eine Herausforderung dar. Unternehmensethik-Kodizes und regulatorische Rahmenwerke sind zwei Hauptwege, auf denen KI-Ethik umgesetzt werden kann.
Erstellung eines Ethik-Blueprints
Der wichtigste Weg, um eine sinnvolle KI-Governance zu schaffen, besteht auf der Graswurzelebene: durch unternehmensgetriebene Bemühungen. Unternehmen, die bereits Ethik und Verantwortung in ihrer KI-Softwareentwicklung adressieren, haben einen Vorteil, aber heute können sich nur wenige Unternehmen leisten, ihre Produkte nicht mit den Risiko-Management- und Best-Practice-Rahmenwerken zu verknüpfen, die in Gesetzen wie dem EU-KI-Gesetz verankert sind. Schließlich geht es bei KI-Ethik um Risikoidentifikation und Risikominderung – und damit um das Risiko für Menschen. Wenn Technologie mit Menschen in Kontakt kommt, welche unbeabsichtigten Konsequenzen könnten entstehen? Könnten diese Risiken in Bezug auf Gesundheit und Sicherheit oder auf grundlegende Rechte stehen?
Ein ethischer KI-Prozess sollte weiterhin Menschen in den Fahrersitz für diese Technologie setzen. Der Zweck von KI besteht darin, menschliche Entscheidungsfindung zu ergänzen, nicht zu ersetzen. Das Ziel sollte sein, KI zu nutzen, um Arbeitskräfte mit Erkenntnissen, Vorhersagen und Empfehlungen zu unterstützen, die ihnen helfen, produktiver zu sein und sich auf strategischere Arbeiten zu konzentrieren.
Dafür sollte der beste interne Prozess einige wichtige Aspekte in Betracht ziehen:
Spezifische Technologien berücksichtigen
Unternehmen, die intern oder als B2B-Softwarelösungen fortschrittliche KI einsetzen, sollten einen produktspezifischen Ansatz verwenden, da die Risiken im Zusammenhang mit Daten und Technologien variieren. Führungskräfte sollten sich fragen: „Wie werden die Daten integriert? Wie werden die Daten genutzt? Wie werden sie extrahiert? Wie werden sie gelöscht?“ Zudem sollten Unternehmen Vertrauen in ihre KI-Software erhöhen. Dies kann durch eine Risikobewertung erreicht werden. Zum Beispiel könnten Unternehmen ein skalierbares Tool für Entwickler*innen verwenden, um zu bestimmen, ob sie an einem sensiblen oder risikoreichen Anwendungsfall arbeiten. Das Tool führt die Entwickler*innen dazu, den Kontext und die Eigenschaften des Systems zu berücksichtigen. Zusammen mit dem Ergebnis der Risikobewertung wäre es wichtig, den Entwickler*innen eine Reihe von Richtlinien für verantwortungsvolle KI bereitzustellen, die Schritte zur Risikominderung enthalten, um unbeabsichtigte Konsequenzen zu vermeiden. Diese Richtlinien sollten Bereiche wie Vorurteile und Fairness, Erklärbarkeit und Interpretierbarkeit sowie Validität und Zuverlässigkeit abdecken.
Von unterschiedlichen Perspektiven profitieren
Führungskräfte können nicht alles allein tun. Es ist wichtig, Input, Zustimmung und Teilnahme auf verschiedenen Ebenen und in interdisziplinären Teams zu erhalten, um es richtig zu machen. Firmen können die Führungsebene, Produkt- und Entwicklungsmanager*innen, rechtliche Expert*innen sowie andere einbeziehen, die regelmäßig zusammentreffen und Input zum KI-Governance-Rahmen geben, um das Beste daraus zu machen. Ein Schlüsselfaktor ist, eine Gruppe von verantwortungsvollen KI-Champions zu haben, die tiefgehendes Wissen und direkte Beteiligung an der Technologieentwicklung im Unternehmen haben. Dies ist unerlässlich, da Produkt- und Technologieentwickler*innen sowie Manager*innen separate Berichtslinien von denen haben sollten, die für die Technologie-Governance verantwortlich sind. Gleichzeitig kann die KI-Governance nicht isoliert entwickelt werden. Das AI-Team sollte Input und Überprüfung durch andere Expert*innen im Unternehmen erhalten. Tatsächlich ist Vielfalt unter den verschiedenen Stakeholdern entscheidend. Sie sollten unterschiedliche Ansichten, Hintergründe, Ansätze und Fokusbereiche haben. Das ist die Stärke eines guten Programms. Diese Vielfalt zusammenzubringen gewährleistet, dass unterschiedliche Gedanken, Bedenken und Perspektiven berücksichtigt werden.
Die Bedeutung von Zusammenarbeit erkennen
Firmen werden stark davon profitieren, mit Kolleg*innen, Forscher*innen und Regierungsbehörden zusammenzuarbeiten, wenn sie ethische KI-Rahmenwerke aufbauen. Es gibt viele Möglichkeiten, wie wir lernen können. Wir können von einer Universität lernen, die ebenfalls im Herzen der Innovation steht. Wir können von neuen Talenten lernen, die wir vielleicht nicht in unserer eigenen Organisation haben. Zum Beispiel hat Workday kürzlich ein neues maschinelles Lernprogramm mit der Technologischen Universität Dublin entwickelt, um seine Arbeitskräfte in Kerndisziplinen wie Data Mining, Deep Learning und Wahrscheinlichkeit zu schulen. Das Unternehmen arbeitet auch mit dem Science Foundation Ireland ADAPT Center zusammen, das Pionierarbeit in der KI-Personalisierung und menschzentrierten Interaktion leistet.
Vertrauen ist das ultimative Ziel
Es ist kein Geheimnis, dass einige Arbeitskräfte von der KI-Revolution in Bezug auf ihre eigenen Karrieren beängstigt sind. Daher muss Vertrauen in die Grundlage jedes KI-Ethikprogramms eingebaut werden. An Mitarbeiterwachstumsplänen zu arbeiten, die die Identifizierung neuer Rollen, Upskilling und Umschulung einschließen können, ist eine weitere Möglichkeit, mögliche Ängste zu mindern. Statt von künstlicher Intelligenz sprechen wir von Technologie, die menschliche Intelligenz ergänzt. Es ist interessant, weil die Art und Weise, wie wir darüber sprechen, Menschen beruhigen kann. Vertrauen ist von entscheidender Bedeutung, daher ist es aus ethischen und moralischen sowie praktischen und konkreten Gründen wichtig, sich darauf zu konzentrieren, Vertrauen in unsere KI-Produkte und -Technologien aufzubauen.
Letztendlich müssen Firmen damit beginnen, ethische und verantwortungsvolle Rahmenwerke für ihre KI-Technologien zu schaffen. Unternehmen sollten die aktuellen Richtlinien überprüfen, damit ihre internen Standards ausgerichtet werden können. Wenn verantwortungsvolle und vertrauenswürdige KI-Risikomanagement-Rahmenwerke nicht richtig erstellt werden, könnten Organisationen, die in diesem Bereich hinterherhinken, im Laufe der Zeit aussterben. In Zukunft wird die Nachfrage nach verantwortungsvoller und vertrauenswürdiger KI-Technologie weiter steigen.
Ein gutes Logo ist wirklich entscheidend für den ersten Eindruck eines Unternehmens. Ich habe mich selbst schon oft gefragt, welche…
Auch für mich als Freiberufler gestaltet sich die Projektarbeit für Auftraggeber mit zertifiziertem QM sehr viel einfacher und zielführender als…
Ich checke echt nicht, worum der ganze Stress geht. Ghostwriting ist doch einfach nur 'n Job wie jeder andere.