Immer mehr Daten wandern ins Netz oder werden in intelligenten Systemen verarbeitet. Auch im Human Ressources Management, wo mit hochsensiblen personenbezogenen Informationen hantiert wird. Angesichts dessen fragen sich Arbeitnehmer und Bewerber zunehmend besorgter: Was passiert mit diesen Informationen? Gehen Unternehmen verantwortungsvoll damit um? Um dies sicherzustellen, reicht es nicht einfach aus, die Datenschutzgesetzgebung einzuhalten. Viel mehr benötigen Unternehmen eine Strategie für Corporate Digital Responsibility (CDR), auch als Digitale Ethik oder Digitalethik bezeichnet. Sie setzt sich zum Ziel, frühzeitig Transparenz, Sicherheit und Vertrauen zu schaffen.

Die Digitalisierung erobert das Personalmanagement

Die Digitalisierung hat das Personalmanagement erobert. Immer mehr HR-Prozesse wurden in den letzten Jahren digitalisiert und teilweise automatisiert. Längst wird in vielen Betrieben die Passung von Bewerbern zu einem Job mittels KI – also künstlicher Intelligenz – ausgelotet. In einem anderen Szenario werden auf Knopfdruck die Entwicklungspotenziale etablierter Mitarbeiter ausgewertet, während Bots auf Karriereseiten Talenten automatisch Antworten zum Karriereverlauf im Unternehmen geben.

Es steht völlig außer Zweifel: Der Einsatz digitaler Tools trägt insbesondere im Personalmanagement zu enormen Effizienzgewinnen bei. Er sorgt für schnellere Bewerbungsprozesse und bessere HR-Services im Unternehmen. Davon profitieren alle Beteiligten. „KI kann Geschwindigkeit und Flexibilität bringen, Qualitäten verbessern, Kosten senken und sowohl den Match zwischen Bewerber und Unternehmen sowie auch die Personalentwicklung deutlich optimieren“, erläutert Thomas Belker, Vizepräsident des Bundesverbands für Personalmanager (BPM) in einem offiziellen Statement.

Digitale Ethik: Angst vor Missbrauch von Daten

Doch das ist nur die eine Seite der Medaille, warnt der Verband in einer Pressemeldung. Je stärker der Roboter in HR-Prozesse eingebunden werde, desto wichtiger werde auch die Auseinandersetzung mit ethischen Fragen rund um die eingesetzten Technologien und künstlichen Intelligenzen. Zum Beispiel: Wie stellen wir sicher, dass der Algorithmus diskriminierungsfrei Personal auswählt?

Aktuelles Beispiel: Seit diesem Jahr greift der österreichische Arbeitsmarktservice (AMS) auf einen Algorithmus zurück, um die Vergabe von Fördermitteln für Arbeitssuchende zu steuern. Das Problem dabei: Der Algorithmus wird verdächtigt, Frauen und Menschen über 50 Jahren zu benachteiligen. Grund dafür könnten die historischen Daten sein, auf denen das Programm seine Prognosen aufbaut. Bisherige Schwierigkeiten bei der Jobsuche für ältere Menschen und Frauen übernimmt der Algorithmus und rechnet diese beiden Merkmale als negative Faktoren in die Einschätzung ein. Eine Lösung für das Problem ist bisher nicht gefunden.

Und dann wäre da noch die Angst vor dem externen Missbrauch sensibler Daten. Nicht auszudenken, was passiert, wenn etwa ein HR-Programm mit den vielen persönlichen Angaben der Mitarbeiter eines Unternehmens ausgespäht würde. All das hat das Thema Digitale Ethik mit Nachdruck auf die Agenden vieler Betriebe befördert.

Angst vor Vertrauensverlust

Die Zielsetzung: Ein Regelwerk zu schaffen, in dem Unternehmen sich transparent einem verantwortungsvollen Umgang mit allen Themen und Aspekten der Digitalisierung verpflichten. Ein Bekenntnis zur Corporate Digital Responsibility (CDR), wie die Digitale Ethik auch genannt wird, kann erfolgsentscheidend für moderne Unternehmen sein. Ansonsten laufen Sie Gefahr, hochqualifizierte Mitarbeiter zu verlieren, weil sie deren Vertrauen in puncto Datensicherheit einbüßen.

Somit ist Corporate Digital Responsibility ein Thema von höchster Dringlichkeit. Sogar so brisant, dass das Software-Unternehmen Salesforce eigens einen „Chief Ethical and Humane Use Officer“ ernannt hat, um es anzugehen. Aber auch in anderen Unternehmensumfeldern ist die Dringlichkeit des Themas angekommen. Das jedenfalls legt eine aktuelle Studie von PwC nahe. Dieser zufolge genießt die Umsetzung von CDR-Richtlinien in vielen Betrieben eine hohe Priorität. Insbesondere, was den Umgang mit sensiblen Informationen wie Mitarbeiterdaten angeht, die Implementierung von IT-Sicherheitssystemen und die Unternehmenskultur in der digitalen Welt. 59 Prozent der Konzerne beschäftigen sich mit dem Thema auf C-Level-Ebene. Einen speziellen Beauftragten für ethische Herausforderungen hat bereits jedes fünfte Unternehmen eingestellt.

Umsetzung von CDR- Maßnahmen

Was die Umsetzung von CDR- Maßnahmen angeht, sind viele Betriebe in diesen Bereichen bereits einigermaßen gut aufgestellt, aber eben nicht perfekt:

  • An erster Stelle stehen Richtlinien zum Datenschutz und zum Umgang mit personenbezogenen Daten (78 Prozent).
  • Leitlinien zur Schaffung von Transparenz im Hinblick auf digitale Themen haben 57 Prozent der Betriebe ausgearbeitet.
  • Wichtig ist den Unternehmen auch, dass Entscheidungen auf Basis von Algorithmen im Bereich Künstliche Intelligenz vom Menschen korrigiert werden können. Das ist in 44 Prozent der Anwenderunternehmen der Fall.
  • Einen ähnlichen Stellenwert genießen verbindliche Leitlinien zur internen und externen Online-Kommunikation. Diese existieren in 43 Prozent der Unternehmen.

Weniger verbreitet sind dagegen ausformulierte Standards zur digitalen Ethik und digitalen Verantwortung, die als Leitlinie für Unternehmensentscheidungen dienen können: Lediglich ein Viertel der Unternehmen arbeitet bislang damit. Ebenso wenige Organisationen haben eine ausformulierte Digitalstrategie mit Bezügen zur digitalen Ethik.

An diesen Punkten scheitert die Umsetzung von CDR- Maßnahmen

Die Aufzählung zeigt: In den meisten Bereichen zur Umsetzung einer Digitalethtik besteht noch viel Luft nach oben. Die PwC-Studie weist auch darauf hin, woran das Unterfangen in vielen Betrieben scheitert:

  • Es mangelt in mehr als der Hälfte der Unternehmen an den richtigen Talenten, die CDR-Strategien entwickeln und umsetzen könnten.
  • Innerhalb des Betriebs mangelt es den Mitarbeitern einem Bewusstsein für die Bedeutung einer Digitalethik: In 44 Prozent der Fälle gehen Mitarbeiter unsachgemäß mit digitalen Informationen um.

Ein enormes Risikopotenzial geht aber auch von veralteten Softwarelösungen aus, mit denen immerhin noch 35 Prozent der Unternehmen arbeiten. Die Folge: Prozesse sind nicht datenschutzkonform und die IT-Sicherheit ist nicht hinlänglich gewährleistet, was Hackerangriffe begünstigt.

Hier helfen im HR-Bereich passgenaue datenschutzkonforme und sichere Softwareanwendungen, die sich passend zu den Workflows im Unternehmen implementieren lassen. Damit wäre relativ zügig zumindest ein weiteres Teil im komplexen Puzzle rund um eine Digitalethik gefunden. Eine Sorge weniger – immerhin!