Projektowanie doświadczeń użytkownika w produktach AI #EN38

TL;DR

  • Modele mentalne są kluczowe – użytkownicy często nie rozumieją, jak działa AI, co prowadzi do błędnych oczekiwań
  • Rozpoczynaj od prostoty – na początek uprość wizualizacje i interfejsy, stopniowo wprowadzaj złożoność
  • Tłumacz AI fragmentarycznie – wyjaśniaj możliwości, ograniczenia i źródła danych, ale nie każdy szczegół techniczny
  • Kalibruj zaufanie – dąż do punktu, w którym użytkownicy nie są ani zbyt sceptyczni, ani zbyt ufni
  • Pełna automatyzacja nie zawsze jest celem – ludzie i AI mają różne mocne strony, najlepsze wyniki daje ich współpraca
  • Twórcy produktów AI mają odpowiedzialność – to na nich spoczywa edukowanie użytkowników i kształtowanie właściwych modeli mentalnych
  • Znaj swoich użytkowników – różne osoby (analitycy danych, menedżerowie) inaczej kalibrują swoje zaufanie do systemów AI

Kluczowe wnioski z prezentacji dr Janny Lipenkovej

W dzisiejszym artykule dzielę się najważniejszymi informacjami z wykładu dr Janny Lipenkovej na temat projektowania doświadczeń użytkownika w produktach AI. To materiał pełen wartościowych spostrzeżeń, do których warto wracać przy pracy nad produktami wykorzystującymi sztuczną inteligencję.

Kontekst: AI wyszło z cienia

Jak zauważyła dr Lipenkova na początku swojej prezentacji, jeszcze w 2010 roku sztuczna inteligencja była tematem niszowym. Gdy studiowała w Berlinie, musiała szukać profesorów zajmujących się tą dziedziną. Dziś sytuacja jest diametralnie inna – od końca 2022 roku, wraz z pojawieniem się ChatGPT, AI trafiło do masowego odbiorcy.

Mimo popularności, wiele firm ma trudności z wdrażaniem AI w sposób, który rzeczywiście zwiększa produktywność. Dlatego prelegentka postanowiła podzielić się studium przypadku z projektu B2B, który realizowała ze swoim zespołem.

Przypadek B2B: rzeczywistość AI w korporacji

Projekt realizowany był dla dużej firmy z branży turystycznej, która potrzebowała lepszego wglądu w trendy rynkowe. Charakterystyczne dla tego typu przedsięwzięć jest:

  • Długi czas przygotowania (9 miesięcy)
  • Konieczność głębokiej customizacji modeli AI
  • Wysokie wymagania dotyczące transparentności i dokładności
  • Potrzeba udowodnienia wartości biznesowej

Rozwiązanie składało się z dwóch głównych komponentów:

  1. Analitycznego – monitorowanie rynku i wyodrębnianie trendów
  2. Rekomendacyjnego – sugerowanie konkretnych działań w odpowiedzi na zidentyfikowane trendy

Kształtowanie partnerstwa człowiek-AI

Badania pokazują, że większość ludzi podchodzi do AI z ostrożnością, niepokojem lub sceptycyzmem. To na twórcach produktów spoczywa odpowiedzialność za zmianę tego nastawienia poprzez edukację i budowanie zaufania.

Modele mentalne: jak użytkownicy rozumieją AI

AI fundamentalnie zmienia nasze modele mentalne dotyczące produktów cyfrowych. Tradycyjne interfejsy (jak JIRA) mają jasno zdefiniowane elementy i ograniczenia. Natomiast interfejsy konwersacyjne AI są bardziej elastyczne, a ich możliwości są „ukryte” w modelu, a nie widoczne w UI.

Dr Lipenkova podkreśla kilka typowych nieporozumień między klientami a inżynierami AI:

  1. Błędne przypisywanie przyczynowości – „AI wykrywa negatywny sentyment, bo w tekście jest wzmianka o alkoholu” vs skomplikowane modele z wieloma cechami
  2. Traktowanie błędów AI jak bugów – klienci oczekują 100% dokładności, nie rozumiejąc statystycznej natury modeli
  3. Niewłaściwe oczekiwania dotyczące interakcji – klienci chcą prostoty, inżynierowie zalecają bardziej złożone promptowanie

W projekcie zespół nauczył się, że:

  • Warto zaczynać od uproszczonych wizualizacji (nawet jeśli to tylko wykresy słupkowe czy listy)
  • Z czasem można dodawać złożoność poprzez możliwość „drążenia” danych
  • Różni użytkownicy (menedżerowie vs analitycy danych) mają różne potrzeby dotyczące poziomu szczegółowości

Wyjaśnianie AI: otwieranie czarnej skrzynki

Pełne wyjaśnienie działania modeli AI (z milionami parametrów) jest nie tylko niemożliwe, ale też niepożądane dla większości klientów. Lepszym podejściem jest częściowe wyjaśnienie obejmujące:

  1. Możliwości i ograniczenia systemu – szczególnie ważne jest uczciwe przedstawienie ograniczeń, by uniknąć sytuacji jak z Clippy od Microsoftu, który oferował pomoc poza swoimi kompetencjami
  2. Jakość i dokładność systemu – np. prawdopodobieństwo poprawności przewidywań
  3. Źródła danych – co zostało użyte do treningu modelu i predykcji
  4. Jak (w uproszczeniu) działa model – używając metafor i analogii, bez wchodzenia w matematyczne szczegóły
  5. Jak działać na podstawie wyników – instrukcje pomagające wykorzystać analizy

Budowanie zaufania: znalezienie złotego środka

„Nic nie jest tak szybkie jak prędkość zaufania” – ta zasada z biznesu tradycyjnego ma zastosowanie również w kontekście AI. Gdy użytkownicy ufają produktowi, chętniej go używają i promują.

Celem powinno być „skalibrowane zaufanie” – złoty środek między:

  • Brakiem zaufania – użytkownicy nie korzystają z produktu
  • Nadmiernym zaufaniem – użytkownicy akceptują wszystko bezkrytycznie

Budowanie zaufania opiera się na:

  • Zrozumieniu – przejrzystości i wytłumaczalności
  • Użyteczności – dostarczaniu realnej wartości
  • Kontekście decyzji – im wyższe stawki (zdrowie, finanse), tym trudniej o zaufanie

W projekcie zespół zauważył, że:

  • Różne persony (analitycy danych vs menedżerowie) inaczej kalibrują zaufanie
  • Zaufanie rozwija się w czasie
  • Im większe konsekwencje decyzji, tym trudniej o zaufanie
  • Zaufanie działa w dwie strony – nie tylko użytkownicy muszą ufać AI, ale też twórcy muszą ufać użytkownikom, że będą właściwie korzystać z narzędzia

Współtworzenie: balans między kontrolą a automatyzacją

Istnieje spektrum automatyzacji:

  1. Brak automatyzacji – wszystko robi człowiek
  2. AI asystujące – jak Grammarly, sugerujące poprawki, ale człowiek zachowuje kontrolę
  3. AI augmentujące – AI jako partner, znacząco rozszerzający możliwości człowieka
  4. Pełna automatyzacja – AI wykonuje zadanie samodzielnie

Choć pełna automatyzacja wydaje się ideałem, często:

  • Nie jest możliwa przy obecnym stanie technologii
  • Nie jest pożądana, gdyż ludzie i AI mają różne mocne strony

Ludzie exceli w:

  • Umiejętnościach emocjonalnych i społecznych
  • Kontekstualizacji złożonych sytuacji
  • Odpowiedzialności za strategiczne decyzje

AI jest lepsze w:

  • Analizie dużych ilości danych
  • Automatyzacji powtarzalnych zadań
  • Wskazywaniu wzorców

W projekcie zespół stworzył mapę procesu ideacji i wyboru projektów, a następnie określił potencjał automatyzacji każdego etapu:

  • Wysoki dla analizy rynku i generowania pomysłów
  • Średni dla badania i filtrowania pomysłów
  • Niski dla podejmowania ostatecznych decyzji

Podsumowanie: odpowiedzialność twórców AI

Dr Lipenkova podkreśla, że twórcy produktów AI mają odpowiedzialność za:

  1. Zakładanie, że użytkownicy mają niepoprawne modele mentalne
  2. Wyjaśnianie czarnych skrzynek AI w sposób zrozumiały
  3. Budowanie zaufania poprzez edukację i dostarczanie wartości
  4. Tworzenie systemów, które wykorzystują mocne strony zarówno ludzi, jak i AI

AI jest nowa dla większości użytkowników, którzy korzystają z produktów cyfrowych od dekad. Nie możemy zostawić ich samych sobie w tej transformacji – jako twórcy produktów musimy wziąć odpowiedzialność za kształtowanie właściwych modeli mentalnych i edukację.

Przypisy

Ten artykuł powstał na podstawie ptezentacji dr Janny Lipenkovej „Designing the user experience of AI products” wygłoszonej podczas wydarzenia ProductTank w Kolonii (17 czerwca 2024). Dr Lipenkova jest CEO i współzałożycielką firmy Equintel.


Opublikowano

Komentarze

Dodaj komentarz