Zum Inhalt

KI und Projektplanung - so funktioniert’s

Nachdem wir gezeigt haben, in welcher Umgebung KI-Algorithmen für das Projektmanagement am besten funktionieren, möchten wir weitere Aspekte von unterstützenden Algorithmen hervorheben:

Algorithmen verwandeln Daten in Informationen

Der erste Punkt ist die Schwierigkeit, die Dimensionen der zukünftigen Arbeit vorherzusehen. Im relativ einfachen Umfeld einer Fabrik oder bei der Urlaubsplanung ist das noch einfach. So endet der Urlaub zeitlich genau dann, wenn er zu Ende ist. Die Qualität des Urlaubs spielt dabei planerisch eine sehr untergeordnete Rolle. Ganz anders verhält es sich bei Projekten wie einem neuen Konstruktionsschritt im Maschinenbau, der Entwicklung eines Computerprogramms oder der Vorhersehbarkeit, wann das Management eine bestimmte Entscheidung trifft. Hier muss gesagt werden, dass es Dinge gibt, die nicht vorhersebar sind - aber man muss nicht völlig blind oder unwissend sein! Wir können zwar die Arbeit, ihre Dauer und damit den Zeitbedarf und die Auslastung nicht genau vorhersagen, aber zumindest annähernd. Wir wissen nicht genau, wie lange es dauert, ein Computerprogramm zu entwickeln, aber es ist klar, dass es weder eine Minute noch 1.000 Jahre dauert.

Wir können also ein Intervall schätzen - einen ungenauen Wert für Anfang, Ende, Dauer und Aufwand. Wir sagen in der Planung nicht "Das dauert genau 46 Stunden", sondern wir schätzen "30 Stunden bis 60 Stunden". Das ist das Intervall. Was für den Menschen alltägliche Informationsroutine ist, ist für den Computer, also die Software, die das verarbeiten soll, nicht so einfach. Es gibt nämlich nicht nur einen zu berechnenden Wert (46 Stunden), sondern mehrere (30, 31, 32, 33 usw.). Durch diese Ungenauigkeit werden in einer vernetzten Planung auch die Termine für das Ende der Arbeit und damit für den Beginn der nächsten Arbeit ungenau. Der Beginn ist also nicht genau am 3.6., sondern irgendwo zwischen dem 3.6. und dem 1.7. Dies führt zu einer gefährlichen Kombination für eine KI. Das Arbeitspaket kann also am 3.6. beginnen und 30 Tage dauern, oder am 4.6. oder am 5.6. und 30 Tage dauern oder 31 Tage usw.

Auf diese Weise potenzieren sich die möglichen Kombinationen. Wenn es nun in einem Projektplan mehrere Abhängigkeiten gibt, eben mit anderen Arbeiten in anderen Projekten, kann es schnell zu exponentiellen kombinatorischen Steigerungen kommen, die früher oder später für die Maschine verheerend sind und uns in der Praxis auch nicht weiterhelfen.

Ein Beispiel, um das zu verbildlichen:

Ein Algorithmus berechnet aus allen möglichen Kombinationen, ob ein Projekt problematisch ist oder nicht. Von 100.000 Kombinationen findet er beispielsweise in 70.000 Kombinationen, also in 70 % der Fälle, Probleme. Das ist zwar mathematisch korrekt, setzt aber voraus, dass alle Kombinationen mit gleicher Wahrscheinlichkeit eintreten (wie beim Würfeln). Eine solche homogene Verteilung der Wahrscheinlichkeiten entspricht aber nicht der Realität. Um die Eintrittswahrscheinlichkeiten der Möglichkeiten realistischer einzuschätzen, wird ein Filter über die Ergebnisse gelegt. Dieser Filter, der den Algorithmen die Arbeit erleichtert, entspricht der bekannten Gaußschen Normalverteilung.

Gaußsche Normalverteilung bei Projektwahrscheinlichkeiten

Das oben beschriebene Szenario geht von einer gleichen Wahrscheinlichkeit innerhalb des Schätzintervalls aus. Das bedeutet, dass bei einem einfachen Arbeitspaket, das mit einer Dauer von 5 bis 10 Tagen geschätzt wird, jeder Fall, also 5 oder 6 oder 7 usw., gleich wahrscheinlich ist.

In der Praxis ist dies jedoch nicht der Fall. Die Wahrscheinlichkeit, dass die Entwicklung eines Computerprogramms eine Minute dauert, ist genauso gering wie die Wahrscheinlichkeit, dass es 1.000 Jahre dauert. Dasselbe gilt für Arbeitspakete. In der Realität sind die Intervallendpunkte 5 Tage und 10 Tage wenig realistisch. Der Mittelwert von 7,5 Tagen ist wahrscheinlicher. Es kann auch sein, dass die tatsächliche Dauer außerhalb des Intervalls liegt, also z. B. bei 3 Tagen oder 12 Tagen. Dies ließe sich fast bis ins Unendliche ausdehnen, bis hin zu dem Fall, dass das Arbeitspaket überhaupt nicht durchgeführt wird (null Tage) oder sogar bis in alle Ewigkeit. Solche Überlegungen führen aber nur zu noch größerer Komplexität und können ignoriert werden. Eine Ausnahme bilden die so genannten Demands, also ganze Projekte in der Zukunft, über die nicht eindeutig entschieden wurde. Hier liegen die Möglichkeiten tatsächlich zwischen 0 % (wird garantiert nicht realisiert) und 100 % (wird garantiert realisiert).

Die Gaußsche Standardnormalverteilung würde in unserem Fall ("5 bis 10 Tage") jedes Intervall einer Arbeit zwischen Planung (Schätzung) und Realität (tatsächliche Dauer) messen und daraus ein Konfidenzniveau ableiten. In einem zentralen Computersystem würden also alle Arbeitspakete, die ursprünglich mit 5 bis 10 Tagen erfasst wurden, mit der eingetretenen Realität verglichen und gemessen. Dabei könnte sich herausstellen, dass die meisten Arbeitspakete mit diesen Parametern tatsächlich 7,5 Tage benötigt haben. Daraus lässt sich für alle zukünftigen Pakete mit einer Dauer von 5 bis 10 Tagen ableiten, dass sie wahrscheinlich 7,5 Tage dauern werden. Es kann aber auch sein, dass der häufigste Fall nicht 7,5 Tage, sondern 9 Tage ist.

Statistisch ist das alles logisch und kann auf vergleichbare Intervalle übertragen werden. Aber stimmt das auch? Leider nein: Es handelt sich um einen Näherungswert, der stark von den arbeitenden Menschen und deren Einschätzung des erforderlichen Aufwands beeinflusst wird. Es gibt Menschen, die optimistisch schätzen und solche, die eher auf Nummer sicher gehen. Letztere gehen von 5 bis 10 Tagen aus, sagen dem Projektplaner aber 8 bis 10 Tage, 10 bis 15 Tage oder was auch immer.

Dasselbe Prinzip gilt für die Planenden: Die Aufwandsschätzungen der Mitarbeitenden werden gerne als "übertrieben" dargestellt und kürzer geplant. Irgendwann merken die Mitarbeitenden das und schätzen absichtlich einen höheren Wert, da ihr Soll ja sowieso reduziert wird. Der Planwert ist also weniger rein technisch oder empirisch, sondern eher ein menschliches Gefühl.

Moderne Simulationssoftware kann aber auch mit solchen Modellen umgehen. Am besten hat sich die multiple kombinatorische Simulation bewährt. Das bedeutet, dass jeder Fall des Intervalls berechnet wird. Die Methode funktioniert folgendermaßen: Zuerst wird angenommen, dass das Paket 5 Tage dauert, dann wird getestet: Gibt es ein Problem - ja oder nein. Dann wird alles noch einmal durchgerechnet, diesmal mit 6 Tagen. Und wieder: Gibt es ein Problem - ja oder nein?

Jedes gefundene Problem wird dann mit seiner Wahrscheinlichkeit gewichtet. In unserem Beispiel ist das Problem bei 5 Tagen etwas geringer als bei 7 oder 8 Tagen. Dadurch erhält man nicht die erwartete Dauer, denn das wäre Zufall, sondern ein prozentuales Risiko zwischen 0 % (alle Fälle funktionieren) und 100 % (kein Fall funktioniert). Das Ergebnis ist eine Information für die Projektleitung, die sie bewerten kann. Bei einem angenommenen Risiko von 75 % kann sie z. B. noch die Zuverlässigkeit der Person, die Arbeitsschritte an sich und andere Umwelteinflüsse berücksichtigen, die der Computer nicht kennt - und damit auch nicht bewerten kann. Oder sie geht einfach das Risiko ein.

An sich eine geniale Lösung, die Mathematik mit menschlichen Erfahrungen und Wahrnehmungen verbindet. Doch leider hat der Algorithmus ein Problem: die schiere Menge der Daten. Denn hier haben wir es mit einem exponentiellen Wachstum der Kombinationsmöglichkeiten zu tun. Dies macht sich insbesondere bei der Ressourcenplanung bemerkbar: Wenn zwei Arbeitspakete ungenau parallel mit der gleichen Ressource geplant werden, müssen alle denkbaren Kombinationen durchgerechnet werden.

Nehmen wir als Beispiel folgendes Szenario:

Ein Arbeitspaket beginnt irgendwann in KW 23 (ja, auch der Beginn einer Arbeit oder eines Projektes kann ungenau sein) und dauert 5 bis 10 Tage. Frau Müller ist mit 30 % ihrer Zeit dafür eingeplant. Das parallele Paket startet zwischen KW 23 und KW 25 und dauert 4 bis 6 Wochen. Hier ist Frau Müller zu 80 % eingeplant. Kann Frau Müller beide Pakete bearbeiten?

Die Antwort ist ja: Sie kann ihre Arbeit in diesen beiden Paketen so organisieren, dass sie beide Arbeiten rechtzeitig und ohne Überlastung erledigt. Zugegeben, ich habe mir das von einer Software ausrechnen lassen, weil eine manuelle Berechnung zu aufwendig wäre. Und wir reden hier nur von zwei Paketen für eine Ressource. Stellen Sie sich ein Portfolio mit 200 Projekten vor. Alle sind ungenau und ganze Abteilungen sind verplant. Jetzt fängt das Rechnen erst richtig an!

Abhilfe schafft ein Computerprogramm, in das die Planenden die Werte ungenau eingeben können. Der Computer rechnet alle möglichen Kombinationen durch und ermittelt daraus ein wahrscheinliches Risiko für das Auftreten eines Problems, zum Beispiel einer Terminüberschreitung. Ein solches Risiko, das mit Hilfe eines Algorithmus ermittelt wird, kann zwischen 0 % (es passiert garantiert nichts) und 100 % (alles geht schief) liegen. Bei Schätzungen zwischen 40 % und 60 % ist die gewonnene Information für die Planenden nicht so eindeutig. Hier muss entweder der Mensch oder eine Künstliche Intelligenz weiter überlegen und schließlich entscheiden, ob es sich lohnt einzugreifen - oder nicht.

Der Mensch und seine Einflüsse

Auch wenn wir die Prozessplanung sowie die Wahrscheinlichkeits- und Risikoberechnungen als mathematische Modelle abbilden und damit einem Algorithmus übergeben können: Der menschliche Einfluss in diesen Szenarien darf nicht unterschätzt werden - darauf wurde schon oft hingewiesen.

Alle an einem Projekt und seiner Planung Beteiligten haben eigene Interessen, die durchaus unterschiedlich gelagert sein können. Das übergeordnete Ziel, nämlich ein großartiges Projekt innerhalb der Rahmenbedingungen zu realisieren, ist häufig nicht die primäre Motivation der handelnden Personen. Hier spielen u. a. die Fehlerkultur im Unternehmen sowie die Erfahrung und Professionalität der Projektleitung eine wesentliche Rolle. Den Fachleuten in den Projekten ist es manchmal schlicht egal, was das übergeordnete Ziel des Projekts und der Nutzen für das Unternehmen ist. Und auch für Führungskräfte spielt es manchmal keine Rolle, unter welchem Druck die Mitarbeitenden in Projekten stehen. Sie wollen nur keinen Ärger mit dem höheren Management oder anderen Stakeholdern bekommen - oder einfach nur bei ihnen punkten.

Grundsätzlich gibt es in dieser Situation zwei Pole:

Die übergeordneten Projektverantwortlichen wollen das Projekt mit möglichst wenig Aufwand, Kosten und Zeit realisieren. Die Projektmitarbeitenden wollen ihre Arbeit pünktlich, aber vor allem fachlich korrekt und ohne permanenten Stress erledigen. Dieses Szenario und die hier angestellten Überlegungen können durch den Einsatz von KI etwas geglättet werden. Besonders wichtig: Dadurch, dass die persönliche Einschätzung der Mitarbeitenden direkt in die Planung einfließen kann, entsteht Vertrauen. Auch wenn die Mitarbeitenden keine verbindliche und exakte Zusage machen können, wird dies in der Planung berücksichtigt. Sie werden also ernst genommen.

Ungenaue Planungen werden oft als realitätsnäher bezeichnet. Das ist sicher richtig, aber vor allem schaffen sie eine bessere Vertrauensbasis und fachliche Wertschätzung zwischen den handelnden Akteuren. Durch die oben beschriebene Ermittlung von Risiken und deren Wahrscheinlichkeiten wird die persönliche Einschätzung von Führungskräften und Mitarbeitenden im laufenden Projekt wieder wichtig. Bei einem Risiko von 75 % wird die (gute) Projektleitung den Mitarbeitenden darauf aufmerksam machen und fragen: "Schaffst du das trotzdem?"

Wie diese komplexe Software das Risiko berechnet, ist für den Menschen nicht wirklich wichtig. Viel wichtiger ist, dass die Maschine frühzeitig auf eine Situation hinweist und eine menschliche Einschätzung der Personen in diesem Spiel hervorruft. Das erhöht nachweislich die Qualität des Projekts und der Zusammenarbeit der Menschen.

Das in der Vergangenheit vorherrschende Fabrik-Akkord-Denken eines allwissenden Chefs, der auf den unbedingten Gehorsam und die Leistungsbereitschaft seiner Untergebenen trifft, kann heute nicht mehr funktionieren. Schon gar nicht in einer globalen Wirtschaft, die von Fachkräftemangel geprägt ist. Aber auch das reine, freie und entspannte Leben hochqualifizierter Spezialisten entspricht nicht der Realität. Die Wahrheit liegt mit hoher Wahrscheinlichkeit in der Mitte. Womit wir wieder bei Carl Friedrich Gauß und seiner Standardnormalverteilung wären.

Risikobewertung mit KI

Das Zusammenspiel der vielen parallel laufenden Arbeitspakete und die projektübergreifende Risikobewertung überfordern den Menschen. Auch hier kann Künstliche Intelligenz helfen. Dieses System analysiert das Projektrisiko hinsichtlich seiner negativen Implikationen und der Höhe des Risikos. Dazu werden alle Konfliktsituationen sowohl horizontal, d. h. auf der Zeitachse in die Zukunft, als auch vertikal, d. h. immer tiefer in die Projektdetailplanung hinein, betrachtet und gewichtet. Das Ergebnis ist eine generelle Empfehlung, ob überhaupt etwas an der Planung geändert werden muss oder ob das Projekt zunächst so weiterlaufen kann.

Auch wenn eine Ressource mathematisch garantiert überlastet ist, kann eine KI zu der Empfehlung kommen, das Problem zu ignorieren. Hier antizipiert die KI, dass die Menschen in den Projekten auch die Wichtigkeit von Arbeiten und Projekten erkennen und sich in ihrem Detailverhalten entsprechend anpassen.

Aus anfänglich vielen Warnungen werden dann deutlich weniger, bei denen die KI ein sofortiges Eingreifen empfiehlt. Die Projektleitung kann sich nun auf diese Probleme konzentrieren und wird nicht von unbedeutenden Risiken abgelenkt. Das ist die Hauptaufgabe jeder KI. Die KI sagt Ihnen wie Sie sich verhalten sollen.