W pierwszej części artykułu (nr 49) opisałem, jak sztuczna inteligencja staje się „niewidzialnym wsparciem” dla zespołów projektowych, usprawniając ich codzienne zadania: dzielenie się wiedzą, tworzenie struktur zakresu, wstępną analizę wymagań i dokumentację. Podkreśliłem, że choć AI stanowi cenne narzędzie, nie zastąpi ludzkiej decyzji i refleksji w kluczowych momentach – podobnie jak korekta nie zastąpi twórczej weny. Zapraszam do lektury drugiej części, w której analizuję konkretne zastosowania AI w zarządzaniu projektami.
Pilnowanie standardów
Jednym z lepiej funkcjonujących (choć mało znanych) obszarów LLM, jest sprawdzanie zgodności treści ze wzorcem. W przypadku zarządzania projektami może to posłużyć do weryfikacji, czy np. wprowadzony dokument jest zgodny z firmową metodyką. Taka walidacja może odbywać się automatycznie w momencie wprowadzania dokumentu i natychmiast generować informację zwrotną do jego autora. Testowałem kiedyś walidator na przykładzie dokumentacji przetargowej. Wkleiłem spis warunków, jakie musi spełniać Specyfikacja Istotnych Warunków Zamówienia, pobrany ze strony internetowej urzędu, a potem przepuściłem kilka rzeczywistych SIWZów przez LLM. W mojej ocenie ok. 90% warunków zostało trafnie ocenionych, uwzględniając podawanie cytatów z analizowanego dokumentu na potwierdzenie.
Kontrola postępu prac
Na wejściu analizy stanu możemy wprowadzić informacje ze spotkań, dokumentacje zadań, czy stan list kontrolnych. Na wyjściu zaś możemy otrzymać jego podsumowanie. Jeżeli w komunikacji projektowej przewijają się informacje o postępie prac, to AI będzie w stanie je podsumować, zaznaczyć kluczowe punkty i rozesłać do właściwych osób. Problemem, o którym należy wspomnieć, jest fakt, że informacje o zadaniach wcale nie muszą znajdować się w systemie. Na szczęście w tym drugim przypadku z pomocą również przychodzi AI, z innym aspektem kontroli postępu prac, jaką jest analiza stanu z natury. W przypadku projektów budowlanych i produkcyjnych, w których zużycie materiałów czy przyrost zakresu są widoczne gołym okiem, bo np. powstał kolejny odcinek drogi, przydatne mogą okazać się algorytmy uczenia maszynowego. Taki algorytm jest w stanie policzyć liczbę detali w skrzynkach albo ilość piasku na hałdzie. Jeżeli regularnie będą robione zdjęcia terenu budowy, jest on w stanie wyciągnąć wnioski na temat tempa prac poszczególnych zadań. To, szczególnie w przypadku wielkich projektów angażujących wielu wykonawców, może dać nieocenioną wartość.
Komunikacja w projekcie
Coraz popularniejsze stają się systemy transkrypcji spotkań (np. Fireflies i Tactiq), które włączają się w wirtualne spotkania jako kolejny uczestnik. Potrafią nagrać całą rozmowę, zamienić ją na tekst, przydzielić kwestie mówione poszczególnym uczestnikom, wygenerować notatkę i rozdzielić zadania po spotkaniu. Jeżeli za każdym razem notatka wyląduje w bazie wiedzy, to mamy zapewnione jej zasilanie oraz informację o aktualizacji zadań. Warto jeszcze wspomnieć, że stopniowo zaczynają się rozpowszechniać systemy tłumaczące rozmowę na żywo, co może być szczególnie przydatne przy międzynarodowych projektach.
Badania
Gałęzią, która bardzo szybko rozwija się ostatnimi miesiącami, jest prowadzenie badań przez sztuczną inteligencję. Aby generowały one wartościowe wyniki, potrzebne są dwa czynniki: agenci i możliwość przeszukiwania internetu. W przypadku modelowania matematycznego przydatna może być jeszcze możliwość uruchamiania funkcji przez agentów. W projektach AI może wspomagać ideację, czyli generowanie pomysłów na podstawie baz wiedzy i analizę ryzyk, a także gromadzić informacje z analogicznych przedsięwzięć oraz modelować duże zbiory danych. Możliwe jest stworzenie zbioru agentów, czyli niewielkich programów, które mogą być uruchamiane przez innych agentów, jeżeli zaistnieje taka potrzeba. Prostym przykładem mogą być agenci ustawieni w scenariusz, którego celem jest stworzenie rejestru ryzyk:
- Zaplanuj, skąd zbierzesz informacje o podobnych projektach.
- Ustal, jakie problemy zmaterializowały się w znalezionych projektach.
- Dla każdego z problemów ustal, czy może wystąpić w danym projekcie, jako ryzyko.
- W razie potrzeby przelicz wpływ ryzyk na ścieżkę krytyczną i budżet projektu.
- Oceń jakość wygenerowanych ryzyk.
- Podsumuj całą analizę i uporządkuj ryzyka w rejestr ryzyk.
Jeżeli firma posiada informacje wejściowe na temat ryzyk, to jest szansa, że tacy agenci dostarczą ciekawych wniosków (również automatycznie np. aby ustalić, czy nie pojawiły się nowe przesłanki dotyczące ryzyk w projekcie).
Wdrażanie AI, by wspierała zarządzanie projektami
Analizując rozmaite wdrożenia LLM w biznesie, doszedłem do wniosku, że problem, który miałby zostać rozwiązany za pomocą sztucznej inteligencji, powinien spełniać kilka cech.
Niebanalność
Zastosowanie AI rodzi koszty, zatem wymagane jest, aby rozwiązywany problem był kosztowny. Koszt problemu może wynikać z istniejących barier w jego rozwiązaniu lub ze skali. Przykładowo nie warto wdrażać LLM do oceny postępu zadania, jeżeli mogą zapytać o status tego zadania kolegę, wychylając się zza ekranu. Ale jeżeli w projekcie jest kilkudziesięciu ludzi albo mamy równolegle kilkanaście projektów z wieloma zespołami i chcielibyśmy widzieć stan na poziomie portfela, to problem przestaje być banalny.
Powiązanie z procesem biznesowym
Problem powinien dotyczyć istniejącego schematu pracy. Jeżeli dzisiaj ludzie masowo przygotowują karty projektu w firmie i problemem jest to, że są niekompletne i nieprzemyślane, to być może warto wprowadzić inteligentny walidator, który sprawdzi te karty przed wysłaniem. Jeżeli natomiast na potrzeby wdrożenia AI zaczniemy promptować LLM na początku każdej burzy mózgów, zanim ludzie zgłoszą swoje pomysły, to istnieje spore ryzyko, że ta praktyka zostanie obśmiana i odrzucona. Optymalizacja daje najlepsze rezultaty, gdy dotyczy istniejącego, ustabilizowanego i ważnego procesu biznesowego, gdy odciąża ludzi w ich bieżącej pracy.
Zasilanie wewnętrzną wiedzą
LLM korzystający tylko z treści, na których został wytrenowany przez jego producenta, nie daje dużej przewagi. Jest to zwykły chat. Po pierwsze: każdy, w tym nasza konkurencja, też ma dostęp do tych samych treści, więc jeżeli poprowadzi rozmowę w taki sam sposób, jak my, dojdzie do tych samych wniosków. Po drugie: wnioski generowane przez LLM będą odklejone od naszego kontekstu. Wystarczy, że w GPT wpiszecie prompt o treści poniższej, aby przekonać się o banalności jego konkluzji: Wygeneruj mi product backlog dla projektu stworzenia sklepu internetowego. Zobaczycie, jak ogólny i szkolny przykład otrzymacie. Będzie on poprawny, a jednocześnie żaden zespół nie będzie zgodnie z nim pracował. Samo promptowanie to za mało.
Good enough
Jeśli generujemy obrazki w stylu studia Ghibli, to gdy pierwszy nam się nie spodoba, zmienimy prompta i generujemy kolejne, aż uzyskamy zadowalający efekt. Akceptujemy fakt, że algorytm nie jest idealny i potrzebuje wielu iteracji. Podobnie gdy w Google nie znajdziemy szukanej strony, to zmienimy zapytanie i próbujemy ponownie. Natomiast, gdy do klientów zostanie wystawiony chatbot sprzedający nasze usługi, to oczekujemy, że nie przekaże im błędnych informacji. Poza tym, jeżeli sam jestem w stanie ocenić odpowiedź LLM, to poziom good enough nie musi być tak rygorystyczny. Jeśli zaś nie mam wiedzy lub woli, by oceniać krytycznie odpowiedź LLM, to niestety wymagana jest dużo wyższa jakość odpowiedzi. Uważam, że w przypadku generowania śmiesznych obrazków, nawet 4 na 5 może wymagać przerysowania. W przypadku konsultowania problemów technicznych z klientem, grubo ponad 90% odpowiedzi powinna być poprawna. Model musi być dostatecznie dobry, aby dać wartość. Każde wdrożenie napotka oponentów. A błędy w działaniu algorytmu zostaną natychmiast przez nich wykorzystane do wykazania, że jest ono pozbawione sensu. Jeżeli dodamy do tego obawę niektórych pracowników przed byciem zastąpionym przez sztuczną inteligencję, to nasze wdrożenie może skończyć jako źródło memów. Przed opublikowaniem rozwiązania opartego na AI warto zrobić wewnętrzne testy, czy ta technologia zapewnia wystarczający poziom jakościowy. Jeżeli w danej sytuacji musi być udzielona dobra odpowiedź od pierwszego prompta, to trzeba być bardzo czujnym. Jeżeli użytkownik akceptuje wykonanie wielu iteracji aż do uzyskania poprawnego wyniku, to mamy większą elastyczność.
Śledzenie aktualności
Zrobiłem ostatnio eksperyment na systemie Didascal. Za pomocą Gemini z opcją groundingu (wyszukiwania), Groka podłączonego do Twittera i scrapowania stron WWW, a następnie analizowania za pomocą Gemini, wygenerowałem regularnie odświeżaną listę wiadomości na zadany temat. Taki serwis informacyjny zasilany spersonalizowanymi botami.
Pierwsze wrażenie było takie, że przynajmniej raz dziennie boty zaskakiwały, przynosząc nowe i wartościowe informacje. Kilkukrotnie pomogły podjąć szybkie decyzje inwestycyjne.
Wyobrażam sobie, że boty skanujące wewnętrzne bazy korporacyjne, profesjonalne serwisy z artykułami naukowymi czy witryny konkurencji mogą szybko stać się nieodzownym źródłem wiedzy szczególnie w projektach bardzo innowacyjnych.
Podsumowanie
AI to praktyczne narzędzie automatyzujące żmudne zadania i analizujące ryzyka w projektach. Jej skuteczne wdrożenie wymaga jednak spełnienia kluczowych warunków, o których mowa powyżej. Podczas wdrażania należy pamiętać, że każdy błąd będzie wyolbrzymiony, dlatego niezbędne są staranne testy. Ostateczny cel to uczynienie AI niezauważalnym wsparciem, które odciąża zespół, pozwalając mu skupić się na kreatywności i strategicznych decyzjach.
Autor książki Bardziej niż Agile. Tworzy system zarządzania projektami Wroolo, Productly. Kierownik studiów podyplomowych analizy wymagań i zarządzania projektami na WSB i Akademii Koźmińskiego.