Flow Wise + n8n #EN84

TL;DR

  • Flow Wise to darmowe, open-source narzędzie no-code/low-code do automatyzacji AI, zbudowane na LangChain, które idealnie współpracuje z n8n
  • Local AI Starter Kit pozwala uruchomić lokalne środowisko AI, teraz z dodanym Flow Wise, n8n i Open Web UI
  • Konfiguracja wymaga jedynie GitHub Desktop i Docker Desktop
  • Flow Wise znacząco ułatwia prototypowanie agentów AI w porównaniu z n8n
  • Przy konfiguracji Ollama kluczowe jest zwiększenie wielkości okna kontekstu z domyślnych 2048 do około 32000 tokenów
  • Integracja między Flow Wise a n8n odbywa się poprzez tworzenie webhooków w n8n i niestandardowych narzędzi w Flow Wise
  • Lokalni agenci AI mogą wykonywać złożone zadania jak wyszukiwanie w sieci, podsumowywanie konwersacji Slack, tworzenie dokumentów Google i wysyłanie wiadomości

Dlaczego warto zainteresować się lokalnymi rozwiązaniami AI?

W świecie zdominowanym przez usługi chmurowe, lokalne rozwiązania AI zyskują na popularności. Jak pokazano w webinarze, Local AI Starter Kit z Flow Wise i n8n umożliwia uruchomienie zaawansowanych agentów AI na własnym komputerze. Największą zaletą jest niezależność od zewnętrznych usług oraz pełna kontrola nad danymi.

Największym blokerem jest obecnie fakt, że otwarte modele LLM nie są jeszcze tak potężne jak zamknięte modele, ale ta różnica bardzo szybko się zmniejsza. N8N pozostaje ulubionym narzędziem prezentera do automatyzacji AI, szczególnie ze względu na integrację z setkami aplikacji, ale Flow Wise jest znacznie prostszy i stał się jego platformą pierwszego wyboru do szybkiego prototypowania agentów AI.

Local AI Starter Kit – co to jest i jak zacząć?

Local AI Starter Kit to gotowy pakiet narzędzi do uruchomienia lokalnego środowiska AI. W webinarze przedstawiono, jak rozszerzono go najpierw o Open Web UI, a teraz również o Flow Wise.

Checklist konfiguracji:

  • Zainstaluj GitHub Desktop
  • Zainstaluj Docker Desktop
  • Sklonuj repozytorium za pomocą Git
  • Przejdź do katalogu z projektem
  • Zmień plik .env.example na .env
  • Uruchom całość przez komendę Docker Compose

Po uruchomieniu, wszystkie usługi będą dostępne pod lokalnymi adresami:

  • Flow Wise: localhost:3001
  • n8n: localhost:5678
  • Open Web UI: localhost:3000

Docker Desktop pozwala na łatwe zarządzanie uruchomionymi kontenerami. Jak pokazano w webinarze, możesz zobaczyć logi w czasie rzeczywistym oraz wykonywać komendy wewnątrz kontenerów, co jest niezwykle pomocne przy debugowaniu podczas budowania własnego lokalnego zestawu AI.

Tworzenie agenta AI w Flow Wise

Flow Wise wyróżnia się prostotą budowania agentów AI. W przeciwieństwie do n8n, proces jest bardziej intuicyjny i wymaga mniej czasu.

Kluczowe elementy konfiguracji:

Podstawowe komponenty agenta:

  • Tool Agent node – główny element agenta
  • Buffer Memory – do przechowywania kontekstu rozmowy
  • Chat Ollama Model – model językowy
  • In-Memory Cache – do przechowywania wyników

Krytyczne ustawienia Ollama:

  • Base URL:
    • host.docker.internal – dla Ollama na komputerze hosta
    • ollama – dla Ollama w kontenerze (nazwa z pliku docker-compose)
  • Wielkość okna kontekstu:
    • Domyślnie: 2048 tokenów (zbyt mało!)
    • Zalecane: około 32000 tokenów (aby zapobiec ucinaniu dłuższych rozmów/wyników narzędzi)
  • Model:
    • W webinarze używany był qwen-2.5-coder-32B (sprawdza się najlepiej jako agent AI, mimo że to model koderski)

Z doświadczenia prezentera, modele typu „coder” sprawdzają się najlepiej jako agenci AI, nawet do zadań niezwiązanych z kodowaniem.

Integracja n8n z Flow Wise – proces krok po kroku

Integracja między Flow Wise a n8n to kluczowy element tworzenia zaawansowanych agentów. Proces składa się z dwóch głównych etapów:

1. W n8n:

  • Stwórz nowy workflow zaczynający się od triggera webhook
  • Dodaj logikę biznesową (np. pobieranie danych, wysyłanie wiadomości)
  • Zakończ workflow odpowiedzią webhook
  • Aktywuj workflow i skopiuj URL produkcyjny

2. W Flow Wise:

  • Dodaj node „Custom Tool”
  • Nadaj nazwę i opis narzędzia (LLM używa go do decydowania, kiedy z niego skorzystać)
  • Określ schemat danych wejściowych
  • Napisz kod JavaScript wykonujący zapytanie API do n8n
  • Skonfiguruj zmienne dla wrażliwych danych (tokeny, hasła)

Przykładowy kod JavaScript w Custom Tool:

javascript
const response = await fetch(`http://n8n:5678/webhook/123456`, {
  method: 'POST',
  headers: {
    'Content-Type': 'application/json',
    'Authorization': `Bearer ${$vars.bearerToken}`
  },
  body: JSON.stringify({
    // Parametry z input
  })
});

Ważne uwagi dotyczące integracji z webinaru:

  1. Do komunikacji między kontenerami Docker używaj nazw kontenerów (np. n8n:5678), a nie localhost – to była najczęstsza przyczyna problemów w oryginalnym wideo o Local AI Starter Kit
  2. Dla wrażliwych danych (jak tokeny) używaj zmiennych systemowych w Flow Wise
  3. W przypadku narzędzi integrujących się z Google Drive czy Slack, potrzebujesz n8n na domenie z HTTPS – nie wystarczy localhost

Praktyczne zastosowania lokalnego agenta AI

W webinarze zademonstrowano złożone zastosowanie agenta, które wymagało integracji wszystkich narzędzi:

  1. Agent podsumował konwersację ze Slack, w której była wzmianka o problemie ze znalezieniem wartości netto Elona Muska
  2. Następnie wykorzystał wyszukiwarkę internetową (Brave Search API) do znalezienia aktualnych informacji
  3. Na polecenie użytkownika stworzył dokument Google z wynikami badań
  4. Na koniec wysłał wiadomość w Slack z podsumowaniem i linkiem do utworzonego dokumentu

Co ważne, agent sam decydował, których narzędzi użyć i w jakiej kolejności, bazując na opisach narzędzi i schematach wejściowych.

Najczęstsze problemy i ich rozwiązania

  • Problem z odwołaniami w Docker – pamiętaj o używaniu nazw kontenerów zamiast localhost
  • Zbyt małe okno kontekstu – zwiększ kontekst Ollama z 2048 do 32000 tokenów
  • Integracje wymagające HTTPS – do integracji z Google Drive czy Slack potrzebujesz n8n na domenie z HTTPS

Podsumowanie

Jak podkreślono w webinarze, połączenie Flow Wise i n8n tworzy idealne środowisko do szybkiego prototypowania i wdrażania lokalnych agentów AI. N8N pozostaje ulubioną platformą prezentera do automatyzacji AI, szczególnie ze względu na integrację z setkami aplikacji, ale Flow Wise jest znacznie prostszy w użyciu.

Local AI Starter Kit z dodanym Flow Wise znacząco ułatwia rozpoczęcie pracy z lokalnymi rozwiązaniami AI. Największą przeszkodą jest obecnie to, że otwarte modele LLM nie są jeszcze tak potężne jak zamknięte, ale ta różnica szybko się zmniejsza.

Według prezentera, tworzenie lokalnych agentów AI to przyszłość, a demonstracja w webinarze jest dowodem, że uruchomienie wszystkiego lokalnie i posiadanie całej potrzebnej mocy na własnym komputerze nie jest tak odległe od rzeczywistości.

Ten wpis jest częścią mojej kolekcji notatek z ciekawych podcastów, webinarów i innych treści, które uważam za wartościowe i do których sam chcę wracać. Jeśli chcesz sprawdzić oryginalne źródło, znajdziesz je tutaj: https://www.youtube.com/watch?v=WT_2wQNRgN4


Opublikowano

Komentarze

Dodaj komentarz