Główny wniosek płynący z analizy zastosowań sztucznej inteligencji w narzędziach wspierających zarządzanie projektami brzmi: AI wkrótce stanie się niezauważalnym wsparciem dla zespołów projektowych – podobnie jak korekta ortograficzna w edytorze tekstu. Pojawi się w dziesiątkach drobnych funkcji, usprawniających pracę. Jednak kluczowy element układanki – ludzie i ich decyzje – pozostanie poza jej zasięgiem. Ale czy będzie tak na pewno?


Zarządzanie wiedzą

Jedną z głównych barier gromadzenia i dzielenia się wiedzą w organizacjach, jest koszt, a właściwie proporcja kosztu do spodziewanych korzyści, a właściwie brak motywacji do inwestowania w przyszłość z jednej strony i racjonalna ignorancja z drugiej. W uproszczeniu dzielenie się wiedzą, polega na tym, że ktoś, kto wie (ekspert) lub ma dostęp do wartościowych informacji (bibliotekarz), wprowadza je do wspólnego repozytorium (bazy wiedzy). Natomiast ktoś, kto ma podjąć decyzję albo potrzebuje opracować rozwiązanie (pytający), sięga do bazy wiedzy. Pytający w pewnym aspektach może stać się ekspertem, a ekspert może mieć pytania. Granice między tymi rolami są płynne. Co więcej ekspert, bibliotekarz i pytający to często ta sama osoba, tyle że w dwóch punktach w czasie. Na tym założeniu opierają się tak zwane prywatne bazy wiedzy (Personal Knowledge Management System albo Second Brain). Duże modele językowe (Large Language Model, LLM) są w stanie obniżyć koszt dzielenia się wiedzą po stronie eksperta i pytającego. Z pomocą przychodzi tu Retrieval Augmented Generation czyli technika, w której LLM wzbogaca swoje odpowiedzi, wyszukując informacje w zewnętrznych bazach danych, co zwiększa dokładność i aktualność generowanych treści.

Koszt dostarczania wiedzy

Przed pojawieniem się modeli językowych, udostępnianie dokumentów wymagało przygotowania ich w specjalny sposób, np. skategoryzowania, opisania abstraktem, dodania tagów, podczepienia linków do innych informacji, wpisania słów kluczowych, w razie potrzeby przetłumaczenia na inne języki. Jeżeli ekspert uznał, że wysiłek związany z wrzuceniem treści do wspólnej bazy wiedzy jest za wysoki, nie robił tego. W efekcie baza wiedzy była pusta. Dzisiaj wystarczy wgrać dokument i pozwolić LLM działać. Koszt został znacznie zredukowany. Trzy rzeczy, które można z takim dokumentem zrobić całkowicie automatycznie, to:

  • Wygenerować abstrakt.
  • Identyfikować istotne terminy NER (Named Entity Recognition) – nazwy miejsc, adresy, nazwy przedmiotów, norm prawa, jednostek organizacyjnych, nazwiska, kolory itd.
  • Generować grafy wiedzy.

Dzięki obniżeniu kosztu wrzucania treści do bazy wiedzy mamy większą szansę, że ekspert to zrobi. Przykładowo Google już integruje swoją usługę Google Drive z LLM, więc wkrótce nie będzie trzeba niczego specjalnie wrzucać, system automatycznie udostępni to, nad czym ekspert będzie pracował.

Koszt znajdowania wiedzy

Od strony pytającego LLM pozwala znacząco skrócić czas wyszukiwania potrzebnych treści. W ten sposób walczy z barierą znaną jako racjonalna ignorancja. Otóż pytający ma skłonność nie zaglądać nawet do bazy wiedzy, jeżeli zakłada, że tam nic nie ma wartościowego. Jeżeli w jego ocenie wysiłek poświęcony na szukanie nie przyniesie korzyści, nie zacznie nawet szukać. LLM mogą wydatnie pomóc na przykład przez:

  • Znalezienie podobnych dokumentów – tu z pomocą przyjdzie mapowanie fragmentów tekstu na tzw. embeddings, czyli wektory opisujące miejsce danego tekstu w przestrzeni znaczeń. Mając zmapowany każdy dokument lub jego fragment, można na przykład wyliczyć kąt między każdym dokumentem, im mniejszy, tym dana para jest bliższa semantycznie do siebie. Piękne jest to, że język dokumentu jest tylko jednym z tysięcy czynników wpływających na pozycję. Możliwe jest zatem znalezienie podobnych dokumentów niezależnie od ich języka.
  • Wyszukanie semantyczne dokumentów na bazie zapytania – działa podobnie, jak w poprzednim przypadku tyle, że wzorcowym dokumentem jest zapytanie użytkownika. Człowiek wpisuje pytanie, system mapuje je za pomocą embeddings, a następnie wyszukuje zbliżone znaczeniowo treści. Analogicznie do dokumentów można wyszukać ekspertów, którzy związani są z danym tematem.
  • Wejście w dialog z dokumentami – taka rozmowa przypomina konwersację z mentorem zaopatrzonym w precyzyjną wiedzę. Użytkownik wpisuje pytanie, system wyszukuje pasujące treści, a następnie samo pytanie i te treści wysyła jako prompt do LLM, które odpowiada użytkownikowi. W ten sposób udało mi się wyciągnąć potrzebną wiedzę z kilkuset stronicowych książek raptem w godzinę.
  • Wygenerowanie dokumentu na bazie innych dokumentów – np. tworzenie ofert, umów, dokumentacji przetargowych i pism na podstawie firmowych wzorów.
stock.adobe.com

Analiza wymagań

LLM potrafi wyłuskać z treści bardzo ogólny przebieg procesu biznesowego, ogólną strukturę danych, listę zaangażowanych ról, listę statusów danej sprawy. Jednak jakość takiej automatycznej analizy pozostawia wiele do życzenia. Rok temu zrobiliśmy eksperyment polegający na narysowaniu mapy BPMN (Business Process Model and Notation) przez analityka oraz algorytm i porównaliśmy oba rysunki. Na tej narysowanej automatycznie mapie brakowało wielu warunków i ról. Pokazywała prosty, liniowy przepływ z lewa na prawo. Nie odważyłbym się pokazać komuś takiej mapy. Pojawia się jednak pewna korzyść – unikanie syndromu czystej kartki. Analityk jest w stanie automatycznie wygenerować wstępną dokumentację, z którą może dalej pracować. Moim zdaniem znacznie przyśpiesza to wchodzenie w nowy projekt, a to, co LLM robią wyśmienicie, to generowanie słownika. Jest to działanie zbliżone do NER (Named Entity Recognition). Wystarczy załączyć do prompta dokumenty źródłowe i poprosić o stworzenie słownika pojęć. LLM znajdzie istotne terminy i doda do nich definicje.

Strukturalizacja zakresu

Tworzenie WBS (Work Breakdown Structure), list kontrolnych i backlogu może być przyspieszone dzięki zastosowaniu LLM. Z doświadczenia wiem, że LLM potrafi wygenerować ładnie wyglądającą listę, jednak na ogół są to rzeczy bardzo oczywiste, banalne, powtarzające się lub niekompletne. Diabeł tkwi w osiągnięciu poziomu good enough. Testowałem generowanie struktur zakresu dla inicjatywy z kategorii product discovery, co dobitnie udowodniło, że klucz do sukcesu tkwi w jakości. Zadanie strukturalizacji zakresu jest sens automatyzować, jeżeli efekt będzie porównywalny z tym realizowanym przez zespół. Dla prostych projektów automatyczna strukturalizacja zakresu może być postrzegana niczym gadżet, ale jeżeli na wejściu mamy dziesiątki stron dokumentacji, wiedzy, wniosków z innych projektów, badań marketingowych, analiz działań konkurencji, to algorytm może zademonstrować swoją wartość w szybkim wyciąganiu wniosków. Muszę jednak wspomnieć o jednym negatywnym czynniku. Otóż sam wysiłek planistyczny zespołu jest wartością i czasem głównym celem, podnosi bowiem stopień zrozumienia projektu. Szczególnie wyraźnie widać to w filozofii zwinnej, w której w planowaniu chodzi nie o uzyskanie backlogu, a o porozmawianie i zrozumienie problemu przez product ownera i zespół. Automatyzacja tego może spowodować, że zespół nie będzie rozumiał natury projektu.

Podsumowanie

AI staje się niewidzialnym wsparciem dla zespołów projektowych, ułatwiając codzienne czynności. Obejmują one usprawnienie dzielenia się wiedzą, tworzenie struktur zakresu, takich jak WBS czy backlog, wstępną analizę wymagań, procesów i dokumentacji. Choć sztuczna inteligencja będzie wspierać, nie zastąpi decyzji i refleksji ludzi w kluczowych momentach zarządzania projektami. Tak jak korekta językowa nie zastąpi weny twórczej pisarza. Więcej o zastosowaniu AI przeczytasz w kolejnym numerze Strefy PMI.