TL;DR
- Modele mentalne są kluczowe – użytkownicy często nie rozumieją, jak działa AI, co prowadzi do błędnych oczekiwań
- Rozpoczynaj od prostoty – na początek uprość wizualizacje i interfejsy, stopniowo wprowadzaj złożoność
- Tłumacz AI fragmentarycznie – wyjaśniaj możliwości, ograniczenia i źródła danych, ale nie każdy szczegół techniczny
- Kalibruj zaufanie – dąż do punktu, w którym użytkownicy nie są ani zbyt sceptyczni, ani zbyt ufni
- Pełna automatyzacja nie zawsze jest celem – ludzie i AI mają różne mocne strony, najlepsze wyniki daje ich współpraca
- Twórcy produktów AI mają odpowiedzialność – to na nich spoczywa edukowanie użytkowników i kształtowanie właściwych modeli mentalnych
- Znaj swoich użytkowników – różne osoby (analitycy danych, menedżerowie) inaczej kalibrują swoje zaufanie do systemów AI
Kluczowe wnioski z prezentacji dr Janny Lipenkovej
W dzisiejszym artykule dzielę się najważniejszymi informacjami z wykładu dr Janny Lipenkovej na temat projektowania doświadczeń użytkownika w produktach AI. To materiał pełen wartościowych spostrzeżeń, do których warto wracać przy pracy nad produktami wykorzystującymi sztuczną inteligencję.
Kontekst: AI wyszło z cienia
Jak zauważyła dr Lipenkova na początku swojej prezentacji, jeszcze w 2010 roku sztuczna inteligencja była tematem niszowym. Gdy studiowała w Berlinie, musiała szukać profesorów zajmujących się tą dziedziną. Dziś sytuacja jest diametralnie inna – od końca 2022 roku, wraz z pojawieniem się ChatGPT, AI trafiło do masowego odbiorcy.
Mimo popularności, wiele firm ma trudności z wdrażaniem AI w sposób, który rzeczywiście zwiększa produktywność. Dlatego prelegentka postanowiła podzielić się studium przypadku z projektu B2B, który realizowała ze swoim zespołem.
Przypadek B2B: rzeczywistość AI w korporacji
Projekt realizowany był dla dużej firmy z branży turystycznej, która potrzebowała lepszego wglądu w trendy rynkowe. Charakterystyczne dla tego typu przedsięwzięć jest:
- Długi czas przygotowania (9 miesięcy)
- Konieczność głębokiej customizacji modeli AI
- Wysokie wymagania dotyczące transparentności i dokładności
- Potrzeba udowodnienia wartości biznesowej
Rozwiązanie składało się z dwóch głównych komponentów:
- Analitycznego – monitorowanie rynku i wyodrębnianie trendów
- Rekomendacyjnego – sugerowanie konkretnych działań w odpowiedzi na zidentyfikowane trendy
Kształtowanie partnerstwa człowiek-AI
Badania pokazują, że większość ludzi podchodzi do AI z ostrożnością, niepokojem lub sceptycyzmem. To na twórcach produktów spoczywa odpowiedzialność za zmianę tego nastawienia poprzez edukację i budowanie zaufania.
Modele mentalne: jak użytkownicy rozumieją AI
AI fundamentalnie zmienia nasze modele mentalne dotyczące produktów cyfrowych. Tradycyjne interfejsy (jak JIRA) mają jasno zdefiniowane elementy i ograniczenia. Natomiast interfejsy konwersacyjne AI są bardziej elastyczne, a ich możliwości są „ukryte” w modelu, a nie widoczne w UI.
Dr Lipenkova podkreśla kilka typowych nieporozumień między klientami a inżynierami AI:
- Błędne przypisywanie przyczynowości – „AI wykrywa negatywny sentyment, bo w tekście jest wzmianka o alkoholu” vs skomplikowane modele z wieloma cechami
- Traktowanie błędów AI jak bugów – klienci oczekują 100% dokładności, nie rozumiejąc statystycznej natury modeli
- Niewłaściwe oczekiwania dotyczące interakcji – klienci chcą prostoty, inżynierowie zalecają bardziej złożone promptowanie
W projekcie zespół nauczył się, że:
- Warto zaczynać od uproszczonych wizualizacji (nawet jeśli to tylko wykresy słupkowe czy listy)
- Z czasem można dodawać złożoność poprzez możliwość „drążenia” danych
- Różni użytkownicy (menedżerowie vs analitycy danych) mają różne potrzeby dotyczące poziomu szczegółowości
Wyjaśnianie AI: otwieranie czarnej skrzynki
Pełne wyjaśnienie działania modeli AI (z milionami parametrów) jest nie tylko niemożliwe, ale też niepożądane dla większości klientów. Lepszym podejściem jest częściowe wyjaśnienie obejmujące:
- Możliwości i ograniczenia systemu – szczególnie ważne jest uczciwe przedstawienie ograniczeń, by uniknąć sytuacji jak z Clippy od Microsoftu, który oferował pomoc poza swoimi kompetencjami
- Jakość i dokładność systemu – np. prawdopodobieństwo poprawności przewidywań
- Źródła danych – co zostało użyte do treningu modelu i predykcji
- Jak (w uproszczeniu) działa model – używając metafor i analogii, bez wchodzenia w matematyczne szczegóły
- Jak działać na podstawie wyników – instrukcje pomagające wykorzystać analizy
Budowanie zaufania: znalezienie złotego środka
„Nic nie jest tak szybkie jak prędkość zaufania” – ta zasada z biznesu tradycyjnego ma zastosowanie również w kontekście AI. Gdy użytkownicy ufają produktowi, chętniej go używają i promują.
Celem powinno być „skalibrowane zaufanie” – złoty środek między:
- Brakiem zaufania – użytkownicy nie korzystają z produktu
- Nadmiernym zaufaniem – użytkownicy akceptują wszystko bezkrytycznie
Budowanie zaufania opiera się na:
- Zrozumieniu – przejrzystości i wytłumaczalności
- Użyteczności – dostarczaniu realnej wartości
- Kontekście decyzji – im wyższe stawki (zdrowie, finanse), tym trudniej o zaufanie
W projekcie zespół zauważył, że:
- Różne persony (analitycy danych vs menedżerowie) inaczej kalibrują zaufanie
- Zaufanie rozwija się w czasie
- Im większe konsekwencje decyzji, tym trudniej o zaufanie
- Zaufanie działa w dwie strony – nie tylko użytkownicy muszą ufać AI, ale też twórcy muszą ufać użytkownikom, że będą właściwie korzystać z narzędzia
Współtworzenie: balans między kontrolą a automatyzacją
Istnieje spektrum automatyzacji:
- Brak automatyzacji – wszystko robi człowiek
- AI asystujące – jak Grammarly, sugerujące poprawki, ale człowiek zachowuje kontrolę
- AI augmentujące – AI jako partner, znacząco rozszerzający możliwości człowieka
- Pełna automatyzacja – AI wykonuje zadanie samodzielnie
Choć pełna automatyzacja wydaje się ideałem, często:
- Nie jest możliwa przy obecnym stanie technologii
- Nie jest pożądana, gdyż ludzie i AI mają różne mocne strony
Ludzie exceli w:
- Umiejętnościach emocjonalnych i społecznych
- Kontekstualizacji złożonych sytuacji
- Odpowiedzialności za strategiczne decyzje
AI jest lepsze w:
- Analizie dużych ilości danych
- Automatyzacji powtarzalnych zadań
- Wskazywaniu wzorców
W projekcie zespół stworzył mapę procesu ideacji i wyboru projektów, a następnie określił potencjał automatyzacji każdego etapu:
- Wysoki dla analizy rynku i generowania pomysłów
- Średni dla badania i filtrowania pomysłów
- Niski dla podejmowania ostatecznych decyzji
Podsumowanie: odpowiedzialność twórców AI
Dr Lipenkova podkreśla, że twórcy produktów AI mają odpowiedzialność za:
- Zakładanie, że użytkownicy mają niepoprawne modele mentalne
- Wyjaśnianie czarnych skrzynek AI w sposób zrozumiały
- Budowanie zaufania poprzez edukację i dostarczanie wartości
- Tworzenie systemów, które wykorzystują mocne strony zarówno ludzi, jak i AI
AI jest nowa dla większości użytkowników, którzy korzystają z produktów cyfrowych od dekad. Nie możemy zostawić ich samych sobie w tej transformacji – jako twórcy produktów musimy wziąć odpowiedzialność za kształtowanie właściwych modeli mentalnych i edukację.
Przypisy
Ten artykuł powstał na podstawie ptezentacji dr Janny Lipenkovej „Designing the user experience of AI products” wygłoszonej podczas wydarzenia ProductTank w Kolonii (17 czerwca 2024). Dr Lipenkova jest CEO i współzałożycielką firmy Equintel.
Dodaj komentarz
Musisz się zalogować, aby móc dodać komentarz.