TL;DR
- Skuteczny prompt engineering to fundament pracy z modelami AI – koniecznie dodawaj kontekst, role, jasne instrukcje i obietnice nagród
- PRD dla produktów AI powinien zawierać uzasadnienie biznesowe, analizę rynku i specyficzne dla AI zabezpieczenia, nie tylko listę funkcji
- Fine-tuning pozwala dostosować model do specyficznego stylu, obniża koszty i poprawia jakość dla powtarzalnych zastosowań
- RAG (Retrieval Augmented Generation) to kluczowa technologia łącząca modele AI z zewnętrznymi źródłami danych, idealna dla produktów pracujących z dużymi zbiorami dokumentów
- MCP (Model Control Protocol) umożliwia standaryzację komunikacji między systemami AI a narzędziami zewnętrznymi
- Agenci AI to zaawansowane systemy mogące wykonywać złożone zadania z wykorzystaniem różnorodnych narzędzi i API
- Rynek product managerów specjalizujących się w AI rośnie niezwykle szybko, a PM-owie AI zarabiają więcej dzięki połączeniu wiedzy biznesowej i technicznej
Szukając inspiracji i wartościowych treści, często trafiam na podcasty, które są kopalnią praktycznej wiedzy. W ramach nowej serii, chcę dzielić się najciekawszymi wątkami z materiałów, które uważam za szczególnie wartościowe i do których sam wracam. Dzisiaj omawiam kompletny przewodnik po zarządzaniu produktami AI na podstawie podcastu z Pavlem Hearnem.
Dlaczego product managerowie AI zarabiają więcej?
W podcaście prowadzący Akash zadaje bezpośrednie pytanie: „Dlaczego AIPM (AI Product Managerowie) zarabiają tak dużo?”. Odpowiedź wskazuje na trzy główne czynniki:
- Połączenie umiejętności – konieczność łączenia wiedzy biznesowej z techniczną
- Gorący obszar technologiczny – najlepsze firmy konkurują o najlepsze talenty
- Unikalne kompetencje – wiedza o AI jest nadal rzadka wśród product managerów
Choć AIPM nie musi umieć fine-tunować modeli czy tworzyć przepływów AI, musi rozumieć technologię na tyle dobrze, by efektywnie współpracować z inżynierami – a to wciąż relatywnie rzadka kombinacja umiejętności.
Poziom mistrzowski: prompt engineering dla PM-ów
Pierwszą kluczową umiejętnością dla product managera AI jest efektywne promptowanie. Pavel prezentuje w podcaście przykład dobrego promptu, zwracając uwagę na kilka kluczowych elementów:
- Wyjaśnienie kontekstu
- Nie tylko co chcesz osiągnąć
- Dlaczego to robisz
- Jak to się wpisuje w szerszy kontekst organizacyjny
- Wprowadzenie ról i perspektyw
- Poproś o analizę z perspektywy PM, designera, inżyniera
- Każda rola wnosi unikalne spostrzeżenia
- Instrukcje krok po kroku
- Określ dokładny proces myślowy
- Rozbij złożone zadania na prostsze etapy
- Techniki zwiększające skuteczność
- Unikaj pytań sugerujących
- Oferuj „nagrodę” za dobre wykonanie („Lubię dodawać, że dostaniesz 1000 dolarów, jeśli wykonasz to zadanie na mistrzowskim poziomie”)
- Traktuj AI tak, jakby miało emocje
- Iteracja i udoskonalanie
- Rzadko pierwszy prompt jest idealny
- Analizuj wyniki i poprawiaj
Pavel podkreśla, że tak jak z szachami – można osiągnąć przyzwoity poziom po kilkuset godzinach praktyki, ale do mistrzostwa potrzeba tysięcy godzin.
Skuteczne techniki promptowania dla trio produktowego
W prezentowanym przykładzie Pavel pokazuje, jak używać AI do identyfikacji ukrytych założeń w procesie ciągłego odkrywania produktowego (continuous product discovery) dla „product trio”. Zademonstrowany prompt:
- Wprowadza kontekst trio produktowego
- Wymienia zidentyfikowane możliwości (np. zautomatyzowane rekomendacje inwestycyjne)
- Prosi model o myślenie z różnych perspektyw (PM, designer, inżynier)
- Dla każdej z tych ról, prosi o identyfikację założeń dotyczących wartości, użyteczności, wykonalności i opłacalności
Co ciekawe, Pavel wspomina też o „hackach” promtowania, w tym o tym, że rozmowa z AI tak, jakby miała emocje, przynosi lepsze rezultaty. W podcaście pada nawet stwierdzenie, że dodanie uśmiechniętej buźki do promptu daje 1% poprawy wyników – to drobny, ale ciekawy szczegół dla product managerów dążących do optymalizacji.
PRD dla produktów AI – co go wyróżnia?
W kolejnej części podcastu omówiony został temat tworzenia Product Requirements Document (PRD) dla produktów AI. PRD dla AI nie jest czymś kompletnie unikalnym, ale wymaga dodatkowych elementów ze względu na specyfikę technologii i duży „szum” wokół AI, który może prowadzić do realizacji projektów bez uzasadnionego biznesplanu.
Kluczowe elementy PRD dla AI:
- Podsumowanie wykonawcze – zwięzły opis inicjatywy i korzyści
- Analiza szans rynkowych – dlaczego warto budować to teraz
- Zgodność strategiczna – jak inicjatywa wpisuje się w strategię firmy
- Potrzeby klientów – jakie problemy rozwiązujemy
- Propozycja wartości – jak adresujemy te potrzeby
- Przewaga konkurencyjna – jak utrzymamy ją długoterminowo (test „can’t/won’t” z pracy Rogera Martina)
- Zakres produktu – wymagania funkcjonalne i niefunkcjonalne
- Strategia wejścia na rynek – fazy budowy i wprowadzenia
Specyficzne dla AI elementy:
- Uzasadnienie biznesowe (przeciwdziałanie „AI dla AI”)
- Zabezpieczenia zapewniające zgodność modelu z potrzebami użytkownika
- Metryki ewaluacji AI
- Audyty pod kątem stronniczości i uczciwości
Pavel przywołuje przykład zastosowania takiego PRD w Shopify przy wprowadzaniu funkcji „autowrite” do generowania opisów produktów. Podkreśla też, że PRD to narzędzie do budowania porozumienia w organizacji, a nie miejsce na dokumentowanie każdego szczegółu. To żywy dokument, który ewoluuje wraz z rozwojem produktu.
Fine-tuning – kiedy i jak dostosowywać modele AI
Jednym z najbardziej praktycznych fragmentów podcastu była demonstracja fine-tuningu modelu AI. Pavel pokazał, jak dostosować ChatGPT 4.0 Mini, aby mówił jak Yoda z Gwiezdnych Wojen.
Problemy z podejściem „z półki”
Pavel zaczyna od wyjaśnienia wad podejścia polegającego na używaniu modeli „z półki”:
- Konieczność dodawania wielu instrukcji przy każdym zapytaniu
- Większe koszty przez wykorzystanie droższych modeli
- Trudność w dostosowaniu do unikalnego stylu (np. głosu marki)
Korzyści z fine-tuningu:
- Niższe koszty – możliwość użycia mniejszego, tańszego modelu
- Mniej tokenów – nie trzeba za każdym razem dodawać instrukcji
- Wyższa jakość – model internalizuje określony styl/ton
- Lepsze zrozumienie unikalnego charakteru – np. głosu marki
Kiedy stosować fine-tuning:
- Dla każdego zapytania wykonywanego wielokrotnie w produkcie
- Gdy chcesz dostosować model do specyficznego stylu
- Gdy potrzebujesz zakodować wiedzę w parametrach modelu
W demonstracji Pavel pokazuje proces fine-tuningu krok po kroku:
- Przygotowanie zestawu danych z przykładami promptów i odpowiedzi
- Wykorzystanie platformy OpenAI do treningu
- Monitorowanie procesu treningu i postępów (spadek „training loss”)
- Testowanie wytrenowanego modelu
Co ciekawe, już po pierwszej epoce (przetworzeniu ok. 200 rekordów) model nauczył się mówić jak Yoda w zadowalający sposób, a dodatkowe epoki nie były konieczne – to pokazuje, jak efektywny może być fine-tuning nawet z ograniczoną ilością danych.
RAG – jak łączyć modele AI z własnymi danymi
Retrieval Augmented Generation (RAG) to kolejna kluczowa technologia omówiona w podkaście. Pavel przedstawił praktyczny przykład, jak zbudować chatbota, który może odpowiadać na pytania na podstawie dokumentów przechowywanych w Google Drive.
Jak działa RAG:
- Indeksowanie dokumentów
- Konwersja na wielowymiarowe wektory
- Przechowywanie w bazie wektorowej (np. Pinecone)
- Podział na mniejsze fragmenty
- Przetwarzanie zapytania
- Konwersja zapytania również na wektor
- Wyszukiwanie podobnych fragmentów dokumentów
- Wykorzystanie tych fragmentów jako kontekstu
- Generowanie odpowiedzi
- Model uwzględnia znalezione fragmenty
- Tworzy spójną odpowiedź bazującą na dokumentach
- Może cytować źródła
Kiedy stosować RAG:
- Gdy pracujesz z wieloma dokumentami (nawet milionami)
- Gdy dane często się zmieniają
- Gdy chcesz, by odpowiedzi bazowały na konkretnych źródłach
W demonstracji Pavel używa następujących narzędzi:
- N8N – do tworzenia przepływów pracy, które reagują na zmiany w folderze Google Drive
- Pinecone – jako baza wektorowa przechowująca dokumenty jako wektory
- OpenAI Embeddings – do konwersji tekstu na wektory
- Lovable – do stworzenia interfejsu chatbota
RAG rozwiązuje problem kosztów i skalowalności – zamiast wstrzykiwać całą zawartość dokumentów do promptu (co byłoby kosztowne dla tokenów), system inteligentnie wybiera tylko najbardziej odpowiednie fragmenty.
MCP – standaryzacja komunikacji AI z narzędziami zewnętrznymi
Model Control Protocol (MCP) to standard rozwijany przez Anthropic, umożliwiający agentom AI i przepływom pracy komunikację z różnymi systemami.
Zalety MCP:
- Standaryzacja – jednolity sposób komunikacji z różnymi narzędziami
- Odkrywanie możliwości – API może informować, jakie działania są dostępne
- Łatwiejsza integracja – nie trzeba znać szczegółów każdego API
Pavel wyjaśnia na przykładzie: „Wcześniej, gdy chciałeś np. zintegrować aplikację ze Stripe, musiałeś przeczytać całą dokumentację API Stripe i zrozumieć, jak wywoływać różne metody. MCP dla każdej usługi zapewnia zestaw standardowych metod. Jedną z nich jest wyjaśnienie, jakie działania są możliwe, jakie narzędzia oferuje ten serwer MCP, a inną jest standaryzowany sposób wykonywania tych narzędzi.”
Demonstracja MCP w praktyce
Pavel przedstawia praktyczny przykład wykorzystania MCP do automatycznego tworzenia epików i user stories w Jira na podstawie projektu Figma:
- Konfiguracja połączeń MCP do Figma i Atlassian (Jira)
- Wykorzystanie Claude do przeanalizowania projektu Figma
- Automatyczne generowanie epików i user stories w Jira
- Dodawanie szczegółowych opisów i kryteriów akceptacji
W efekcie, w ciągu zaledwie kilku minut system generuje kilka epików i kilkanaście szczegółowych user stories – zadanie, które normalnie zajęłoby product managerowi wiele godzin. Pavel wspomina, że w poprzednim teście system wygenerował około 20 user stories i 6-7 epików w ciągu 9 minut.
Co ważne, system mógłby zostać rozszerzony o generowanie linków do konkretnych elementów w projekcie Figma, co jeszcze bardziej usprawniłoby pracę zespołu.
Agenci AI – automatyzacja złożonych zadań
W ostatniej części podcastu Pavel omawia koncepcję agentów AI – zaawansowanych systemów, które mogą wykonywać złożone zadania z wykorzystaniem różnych narzędzi.
Możliwości agentów AI:
- Planowanie – definiowanie kroków do wykonania zadania
- Delegowanie – dzielenie zadań na podzadania dla innych agentów
- Wykorzystanie narzędzi – interakcja z API, wyszukiwarkami, bazami danych
- Prezentacja wyników – strukturyzowanie i formatowanie odpowiedzi
Deep Market Researcher – złożony agent AI
Pavel prezentuje swój produkt „Deep Market Researcher”:
- Agent zbiera podstawowy kontekst o firmach (np. Amazon Prime Video i Netflix)
- Planuje do 11 oddzielnych zadań badawczych
- Deleguje zadania do wyspecjalizowanych sub-agentów
- Łączy wszystkie odkrycia w spójny raport
Efektem jest wielostronicowy raport zawierający:
- Analizę strategii treści
- Porównanie finansowe i rynkowe
- Identyfikację luk i możliwości
- Analizę demografii użytkowników
- Dynamikę udziału w rynku
- Ponad 50 źródeł
Budowanie prostszych agentów z N8N
Pavel pokazuje także, jak za pomocą N8N można szybko zbudować prostszego agenta, który:
- Uzyskuje dostęp do kalendarza Google
- Tworzy wydarzenia
- Wysyła e-maile
Co ciekawe, cała demonstracja budowy takiego agenta zajęła zaledwie kilka minut, pokazując jak dostępne są obecnie narzędzia do tworzenia agentów AI.
Pavel wspomina też, że w N8N można łączyć agenta z innymi narzędziami:
- Generowanie głosu
- Generowanie obrazów
- Wykonywanie połączeń głosowych (np. rezerwacja w restauracji)
- Integracja z innymi API
Łączenie różnych technologii AI
Ważnym aspektem, który warto podkreślić na podstawie podcastu, jest to że technologie fine-tuning, RAG, MCP i agenci mogą być łączone dla maksymalnej efektywności:
- Fine-tuning + RAG – Pavel wspomina, że planuje połączyć te technologie w swoim klonie AI
- RAG + MCP – Można używać RAG do pobierania wiedzy z dokumentów, a MCP do wykonywania działań na podstawie tej wiedzy
- Agenci + inne technologie – Agenci mogą korzystać z wszystkich tych technologii jako „narzędzi”
Pavel pokazuje, jak te technologie uzupełniają się nawzajem, zamiast konkurować ze sobą.
Podsumowanie – przyszłość product managerów AI
Na pytanie Akasha, czy wszyscy PM-owie będą musieli stać się AIPM-ami, Pavel odpowiada: „Nie sądzę. Ale istnieje duże prawdopodobieństwo, ponieważ rynek AI rośnie tak szybko, że z dużym prawdopodobieństwem spotkamy więcej product managerów AI w przyszłości. Rynek dla innych product managerów niekoniecznie musi rosnąć tak szybko.”
Jak podsumowuje Akash: „Nie chodzi o to, że każdy musi zostać AIPM, ale ten rynek rośnie naprawdę szybko, a my właśnie daliśmy wam wszystkie narzędzia, by stać się AI product managerem.”
Ten artykuł jest częścią mojej nowej serii, w której dzielę się najważniejszymi informacjami z interesujących podcastów, do których warto wracać. Powyższe treści bazują na prezentacji z udziałem Pavla Hearna, eksperta od product managementu AI.
Dodaj komentarz
Musisz się zalogować, aby móc dodać komentarz.