fbpx
Unternehmensphysiker - Unternehmensfuehrung


KI ist oft eine Blackbox - es fehlt die Transparenz

Künstliche Intelligenz (KI) hat in vielen Lebensbereichen Einzug gehalten, beispielsweise in Form von Sprachassistenten auf dem Smartphone, beim assistierten Fahren oder bei der digitalen Bilderkennung. Oftmals ist den Anwendern jedoch gar nicht bewusst, dass sie KI-Systeme nutzen. Anderenfalls würden viele eher darauf verzichten, als sich den potenziellen Gefahren dieser neuen Technologien auszusetzen. Das liegt vor allem daran, dass es den Algorithmen an Transparenz mangelt. In vielerlei Hinsicht gleichen sie einer Blackbox. Im Grunde kann kaum jemand nachvollziehen, was innerhalb eines KI-Algorithmus geschieht. Das schürt Ängste und mindert die Akzeptanz. Abhilfe würden transparente Algorithmen schaffen, deren Entscheidungen plausibel und Vertrauen erweckend sind.

Ohne Transparenz kein Vertrauen

Ob im privaten Sektor oder im Unternehmen – von einer KI-Lösung versprechen sich die Verbraucher vor allem eine Erleichterung ihrer alltäglichen Aufgaben. In einer Studie des Marktforschungsinstituts Splendid Research gingen knapp 40 Prozent der Befragten davon aus, dass sich ihr Leben durch die Algorithmen verbessern wird. Ein Drittel gab allerdings an, KI als gefährlich zu empfinden. Eben so viele empfanden sogar Angst vor KI-basierten Technologien. Die Gründe für das Misstrauen reichten vom Kontrollverlust bezüglich der eigenen Daten über eine fehlende Moral und Ethik beim Einsatz der Algorithmen bis hin zu einer befürchteten totalen Überwachung durch die intelligenten Maschinen.

 

Bei künstlicher Intelligenz im HR-Bereich schürt vor allem die Angst vor Fehlentscheidungen durch absichtlich oder unabsichtlich fehlerhaft programmierte Algorithmen oder vom Menschen übernommene Vorurteile die Bedenken. Gleichzeitig wird das Misstrauen gegenüber der KI durch gesellschaftliche Vorbehalte erhöht. So fällt die Wahrnehmung von Personalentscheidungen negativer aus, wenn diese von einem Algorithmus initiiert wurden. Menschliche Entscheidungen werden deutlich seltener hinterfragt, obwohl sie oft ebenso wenig transparent sind.

Neue Technologien ermöglichen Nachvollziehbarkeit von KI-Ergebnissen

Um die Akzeptanz für künstliche Intelligenz zu erhöhen, sind Tech-Unternehmen gefordert, das Vertrauen in KI zu stärken. Das geht nur, indem die von außen kaum durchschaubaren Algorithmen-Black-Boxen durchsichtiger werden.

Erste Strategien zum Erfassen der Vorgänge in KI-Systemen gibt es bereits. Im Jahr 2015 modifizierten die Google-Forscher einen Algorithmus zur Bilderkennung per Deep-Learning so, dass er Objekte nicht nur identifizierte, sondern auch generierte und änderte. Wird das Programm in umgekehrter Reihenfolge ausgeführt, können die Forscher herausfinden, anhand welcher spezifischen Merkmale der Algorithmus ein Gesamtbild erkennt. Hierbei produziert das Projekt namens „Deep Dream“ fremdartige, teils unheimliche Bilder, die sich deutlich von der menschlichen Wahrnehmung unterschieden. Unergründlich sind sie indes nicht. Ein Berg ist klar als Berg, ein Vogel definitiv als Vogel zu erkennen.

 

Ein weiteres Konzept, künstliche Intelligenz mehr Transparenz zu verleihen, ist Explainable AI (XAI). Das XAI-Programm soll nachvollziehbar machen, wie dynamische und nicht linear programmierte Systeme, z. B Deep-Learning-Technologien, genetische Algorithmen und künstliche neuronale Netze zu Ergebnissen kommen. Hierfür finden verschiedene Methoden wie Layer-wise Relevance Propagation (LRP), Counterfactual Method, Local interpretable model-agnostic Explanations (LIME) und Generalized additive Model (GAM) Verwendung.



Mehr Transparenz bei algorithmenfreier KI

Die Risiken durch künstliche Intelligenz sind nicht von der Hand zu weisen. Zum einen ist von einem hohen Missbrauchspotenzial auszugehen. Zum anderen kann KI auch ohne böse Absichten Schaden anrichten, wenn sie nicht so funktioniert, wie von den Anwendern erwartet. Ob im HR-Bereich oder anderswo – langfristiges Vertrauen in die Algorithmen lässt sich nur durch vollständige Transparenz und Nachprüfbarkeit der von ihnen getroffenen Entscheidungen aufbauen.

Einen Schritt in die richtige Richtung geht das Assessment 6.0, das ganz ohne undurchsichtige Algorithmen arbeitet. Stattdessen nutzt die Technologie Wahrscheinlichkeitsrechnungen, Rückkopplung und Informationsfelder auf quantephysikalischer Ebene, um die Stärken, Schwächen und Risiken von Unternehmen, Betriebsangehörigen und potenziellen neuen Mitarbeitern aufzudecken. Dadurch bietet sie eine deutlich höhere Transparenz als Algorithmen, bei denen niemand weiß, auf welche Weise sie letztendlich zum Ergebnis kommen.

Künstlicher Intelligenz mangelt es an Transparenz. Das schürt Ängste vor Kontrollverlust und Missbrauch. Es gibt jedoch Versuche, KI durchsichtiger und damit vertrauenswürdiger zu machen.

Wir benutzen Cookies um die Nutzerfreundlichkeit der Webseite zu verbessen. Durch Ihren Besuch stimmen Sie den Cookie-Richtlinien zu.