GraphQL w erze AI – notatki z keynote GraphQL Summit 2025 #EN332
Adam Michalski
20 października 2025
TL;DR
- Apollo Graphos obsługuje ponad bilion operacji miesięcznie, a ruch potroił się w ciągu ostatniego roku – platforma dojrzała do obsługi aplikacji AI na skalę enterprise
- AI zmienia development na trzech poziomach: agentic coding (rozwój w tempie minut zamiast sprintów), eksplozja mikroserwisów (problem N² integracji) i inteligentne interakcje z użytkownikami
- Model Context Protocol (MCP) to nowy standard dla AI – 16,000+ publicznych endpointów w kilka miesięcy od startu, tempo adopcji porównywalne do wczesnych dni GraphQL
- Apollo MCP Server (GA) pozwala tworzyć narzędzia AI deklaratywnie – zapisujesz operację GraphQL, a automatycznie staje się ona dostępna dla agentów z hot reload bez ponownego wdrożenia
- Case studies pokazują praktyczną wartość: ClinicaMind przeszło od hackatonu do produkcji w kilka tygodni, Block skróciło integracje z tygodni do godzin, Indeed obsługuje 60 mld operacji miesięcznie
- Nowe ogłoszenia: Operator Kubernetes, Graph Artifacts, Apollo Client 4 z mniejszym bundle size, rozszerzone Connectory z metrykami i testami
- GraphQL przestaje być tylko technologią do budowania API – staje się fundamentem dla aplikacji AI, mostem między setkami API a inteligentnymi interfejsami
To są moje notatki z keynote „Building for the agentic future” wygłoszonego przez Maddie Bergalis, CEO Apollo, na GraphQL Summit 2025. Konferencja celebruje również 10-lecie GraphQL i Apollo. Wszystkie przemyślenia, obserwacje i wnioski prezentowane w tym artykule pochodzą z jej wystąpienia oraz demonstracji przeprowadzonych przez Michaela Watsona i prezentacji gości: Davida Sarabii (ClinicaMind), Jeffreya Russoma (Indeed) oraz Jonathana (Block).
Trzy siły transformacji AI
Bergalis rozpoczęła od mocnej tezy: AI to transformacja na poziomie wynalezienia transistora czy internetu. Nie chodzi o kolejne narzędzie, lecz o fundamentalną zmianę w sposobie budowania technologii. Wyróżniła trzy potężne siły, które już teraz zmieniają branżę:
Agentic coding – koniec świata sprintów
Pierwszy wpływ to agentic coding. Większość oprogramowania będzie pisana przez inne oprogramowanie. Bergalis zauważyła, że rodzi to „poważne implikacje dla zaufania, bezpieczeństwa i danych”, ponieważ tradycyjne procesy SDLC nie są do tego przystosowane.
Zespół Apollo używa Cursor (narzędzie do AI-assisted coding) i podobnych rozwiązań codziennie. W rezultacie kod powstaje w tempie minut, nie tygodni. Tradycyjny cykl development – planowanie, implementacja, przeglądy kodu, wdrożenie – trwa zbyt długo jak na tempo AI.
Eksplozja mikroserwisów
Drugi wpływ to radykalne zwiększenie liczby mikroserwisów. Tańsze tworzenie oprogramowania prowadzi do powstawania większej liczby usług, jednak Bergalis podkreśliła kluczowy problem: integracja to problem N². Potrójenie liczby usług oznacza dziesięciokrotny wzrost liczby połączeń między nimi.
Zarządzanie taką złożonością wymaga nowych podejść. GraphQL jako warstwa federacji zyskuje tu nowe znaczenie.
Inteligentne interakcje z klientami
Trzeci wpływ to intelligent customer interactions. Obserwujemy narodziny agentowych UI, które zastępują „search boxes” przez „prompt boxes”, a statyczne formularze przez interfejsy swobodne i chatboty zdolne do wykonywania akcji.
Bergalis podała przykład aplikacji bankowej, która musi obsługiwać skrajnie różne potrzeby: od emerytów uzgadniających saldo na koncie po Gen Z. AI pozwala dostarczyć każdemu z nich skrojone na miarę doświadczenie, ale wymaga to elastycznego backendu.
Dlaczego stare API nie wystarczą w erze AI
Bergalis postawiła mocną tezę: dzisiejsze API są z definicji stałym i stabilnym interfejsem. To po prostu nie pasuje do świata swobodnych, niedeterministycznych doświadczeń użytkownika.
Według niej GraphQL idealnie wypełnia tę lukę. Działa jak pomost między setkami istniejących API a nowymi, inteligentnymi interfejsami. W rezultacie platforma taka jak Apollo GraphOS opisuje wszystkie API firmy, dając centralne miejsce do egzekwowania reguł i polityk, jednocześnie czyniąc te API gotowymi na AI.
Case study: ClinicaMind – od hackatonu do produkcji w kilka tygodni
David Sarabia, założyciel ClinicaMind, podzielił się historią o tym, jak Apollo umożliwiło mu budowanie w branży technologii medycznych. Jego motywacją była osobista walka z uzależnieniem i bezdomnością, która zainspirowała go do tworzenia narzędzi oszczędzających czas lekarzy.
Jego produkt to asystent AI dla lekarzy, pozwalający im w samochodzie, po 16-godzinnym dyżurze, głosowo sfinalizować opisy przypadków pacjentów przez bezpieczną rozmowę z systemami szpitalnymi (jak Epic).
Kluczem była szybkość. Sarabia stwierdził, że przeszli od czterogodzinnego hackatonu do produkcji w ciągu zaledwie kilku tygodni. Było to możliwe, ponieważ Apollo MCP Server pozwolił im natychmiast połączyć API. W jego słowach: „Apollo GraphQL jako nasza warstwa danych oznacza, że karmimy AI dokładnie tym, czego potrzebuje i niczym więcej… [dostarczając] idealnie ustrukturyzowane i bezpieczne dane”.
GraphOS w praktyce: Indeed i Block
Wartość Supergraphu w kontekście AI została poparta także przykładami dużych przedsiębiorstw.
Indeed: AI w czasie rzeczywistym
Jeffrey Russom z Indeed opisał ich wyzwanie: stworzenie asystenta rekrutacyjnego AI „Talent Scout” w zaledwie dziewięć miesięcy. Ich Supergraph – ponad 350 podgrafów obsługujących 60 miliardów operacji miesięcznie – stał się ich przewagą konkurencyjną.
Russom wyjaśnił, że stary system czasu rzeczywistego nie był wystarczająco bezpieczny ani typowany. Dlatego Apollo Router i federacyjne subskrypcje stały się trzonem Talent Scout. Pozwoliło to na strumieniowanie ustrukturyzowanych danych w czasie rzeczywistym bezpośrednio do UI, zapewniając natychmiastowe reakcje agenta AI.
Block: Od tygodni do godzin
Jonathan z Block opisał ekosystem firmy, zarządzany przez 700 zespołów inżynierskich i obejmujący ponad 3000 usług, głównie opartych na gRPC.
Kluczowa zmiana nastąpiła wraz z Apollo Connectors. Jak zauważył Jonathan, Connectory pozwoliły zespołom podłączać swoje API (w tym gRPC) do grafu bez dodatkowej infrastruktury i wiedzy eksperckiej. Proces, który wcześniej zajmował tygodnie, teraz skrócił się do dni, a czasem nawet godzin.
Model Context Protocol – standard, na który czekaliśmy
MCP to protokół stworzony przez Anthropic do komunikacji między modelami językowymi a narzędziami. Bergalis pokazuje liczbę: ponad 16,000 zarejestrowanych publicznych endpointów MCP po zaledwie kilku miesiącach od wprowadzenia protokołu.
Dla porównania – GraphQL potrzebował znacznie więcej czasu, żeby osiągnąć podobną adopcję. MCP rośnie szybciej, ponieważ rozwiązuje palący problem: brak standardów w AI tooling.
Apollo MCP Server (GA) – GraphQL spotyka AI
Apollo ogłosiło ogólną dostępność (GA) serwera Apollo MCP Server. To odpowiedź na pytanie: jak budować wysokiej jakości narzędzia dla agentów w sposób deklaratywny i skalowalny?
Tradycyjne podejście: piszesz kod, implementujesz MCP server, wdrażasz, testujesz. Proces trwa godziny lub dni. Z kolei podejście Apollo: zapisujesz operację GraphQL w collection, a automatycznie staje się ona narzędziem dostępnym dla agentów. Hot reload bez ponownego wdrożenia.
Strategia eksperymentowania i droga do produkcji
Bergalis podkreśla kluczową prawdę o świecie AI: zaczynasz od eksperymentów. Rzucasz wiele żelazek do ognia i patrzysz, co naprawdę działa – co Bergalis określa jako „what really sings”.
Problem pojawia się, gdy chcesz przenieść te eksperymenty do produkcji. Wiele z nich jest zbudowanych w pośpiechu, jednak zespoły chcą szybko je wdrożyć. Tu właśnie observability staje się krytyczna.
To nie jest świat, gdzie masz czas na wielomiesięczne planowanie architektury. Budujesz szybko, testujesz, wybierasz najlepsze rozwiązania i skalujesz je. Apollo MCP Server z integracjami OpenTelemetry daje możliwość przejścia z eksperymentu do produkcji z pewnością, nie nadzieją.
Demo, które pokazuje różnicę
Michael Watson z zespołu Apollo pokazał na żywo proces tworzenia narzędzia. Stworzył operację GraphQL pobierającą informacje o lotach z lotniska, następnie zapisał ją w collection. Narzędzie pojawiło się natychmiast w MCP Inspector – narzędziu, które Watson opisuje jako „GraphQL Playground dla świata MCP”.
MCP Inspector pozwala podłączyć się do działającego MCP servera i zobaczyć dostępne narzędzia. To środowisko developerskie dla tworzenia i debugowania narzędzi AI.
Watson edytował operację na żywo – dodał pole weather, zmienił opis narzędzia, dodał dokumentację do parametru code (wyjaśniając, że to kod IATA). Po zapisaniu zmiana propagowała się automatycznie. Protokół MCP ma wbudowany mechanizm powiadamiania klientów o zmianach w liście narzędzi. Inspector pokazał notyfikację „tool list changed”, a agent Goose mógł od razu używać zaktualizowanego narzędzia.
Później Watson usunął pole weather – uznał, że jednak nie jest potrzebne. Kolejny zapis spowodował automatyczną aktualizację, w rezultacie agent przestał zwracać informacje o pogodzie.
Cały proces – od pomysłu do działającego narzędzia – zajął minuty.
Dlaczego to ma znaczenie w praktyce
Watson wspomina, że kiedy sam budował swoje narzędzia, ciągle iterował między opisami narzędzi a wyborem pól kontekstu. Ten proces – praca z operacjami GraphQL, zapisywanie i hot reload – radykalnie skraca pętlę informacji zwrotnej.
Nie musisz już zmieniać kodu, ponownie wdrażać servera, restartować agenta czy czekać na propagację zmian. Wystarczy edytować operację GraphQL i widzieć efekt natychmiast.
Co Apollo MCP Server daje od razu
Bergalis podkreśla kluczowy balans: stawki są wysokie. Mówisz o przeglądach bezpieczeństwa, przeglądach kodu, zgodności z przepisami, jednak jednocześnie potrzebujesz szybkości.
Apollo MCP Server rozwiązuje ten problem poprzez deklaratywne podejście. Zmiany w narzędziach nie przechodzą przez tradycyjny cykl wdrożenia oprogramowania, ale krytyczne aspekty pozostają scentralizowane:
- Wbudowane wsparcie dla autoryzacji – kontrola dostępu do narzędzi i danych
- Integracje z OpenTelemetry – wszystkie spany i metryki potrzebne do operowania na skalę produkcyjną
- Centralizacja bezpieczeństwa – standardy zarządzane centralnie, mimo że zespoły działają samoobsługowo
- Abstrakcja szczegółów technicznych – Bergalis żartuje: „który transport wszyscy używają w tym tygodniu w MCP?” – to zmienia się szybko, a platforma to ukrywa
Narzędzia MCP nie są prostym mapowaniem API
Bergalis wyraźnie zaznacza punkt, który łatwo przeoczyć: narzędzia MCP nie mapują się jeden-do-jeden do twoich API.
W demo Watson stworzył jedno narzędzie, które łączyło dane z trzech różnych źródeł: Airport API, Flight status API i Weather API (Bergalis żartuje, że jest pod wrażeniem, iż to API jeszcze działa podczas zamknięcia rządu).
To nie jest proste przekierowanie, lecz join, transformacja, komponowanie danych z różnych źródeł. GraphQL pozwala zrobić to deklaratywnie – definiujesz, co chcesz połączyć, a system załatwia resztę.
Agentic development: Jak AI buduje dla AI
Prezentacja pokazała, że agenci AI mogą nie tylko konsumować dane, ale także aktywnie uczestniczyć w tworzeniu infrastruktury. Watson zademonstrował, jak agent AI (Claude) buduje graf łączący dwa zupełnie różne API: Flightradar24 i API pogodowe.
Agent wykorzystał nowe narzędzia GraphOS MCP (jak ConnectorSpec i DocsSearch), aby przeanalizować dostarczone pliki specyfikacji OpenAPI. Demo pokazało ponadto, że AI nie tylko „skleiło” API – agent był w stanie zrozumieć relacje w danych (np. że pole origin w API lotów odnosi się do typu Airport) i samodzielnie stworzyć połączony graf. Dodatkowo potrafił iteracyjnie naprawiać własne błędy dzięki pętli informacji zwrotnej z narzędzia Validate.
Watson pokazał również inny przypadek użycia – discovery istniejącego grafu. Zapytał agenta: „Can you search my graph and tell me what I can do with it?” Agent przeszukał schemat i przedstawił w języku naturalnym dostępne operacje, co eliminuje potrzebę czytania technicznej dokumentacji.
Dlaczego GraphQL wygrywa w świecie AI
Bergalis argumentuje, że GraphQL ma unikalne właściwości, które czynią go idealnym dla aplikacji AI.
Kontrola nad kontekstem
Jeden z największych problemów w AI to context window. Modele językowe mają ograniczoną „pamięć”, dlatego musisz precyzyjnie kontrolować, jakie dane im dostarczasz.
GraphQL pozwala na chirurgiczną precyzję. Definiujesz dokładnie, które pola, z jakich źródeł, w jakiej strukturze trafiają do modelu. Bergalis podkreśla znaczenie zawężenia context window, aby utrzymać model na właściwej ścieżce.
Nie przesyłasz całych obiektów – wyciągasz tylko to, co potrzebne. To kluczowe dla utrzymania agenta na właściwym torze.
Konsystencja UX
Drugi aspekt to kontrola nad doświadczeniem użytkownika. Bergalis mówi wprost: nie chce, żeby jeden klient widział pogodę, a drugi nie.
W świecie agentów user experience staje się niedeterministyczne, jednak to nie znaczy, że chcesz całkowitej losowości. Chcesz spójności w tym, co agent może zrobić. GraphQL daje ci tę kontrolę – definiujesz schemat i dostępne operacje. Agent może je wywoływać, ale w ramach, które ty ustaliłeś.
Myślenie platformowe
Według Bergalis kluczem jest podejście platformowe. Nie budujesz pojedynczego narzędzia AI, lecz platformę, na której każdy w organizacji może budować narzędzia.
Cechy dobrej platformy według Apollo: samoobsługa – każdy w organizacji może budować narzędzia, nie jesteś wąskim gardłem jako właściciel platformy. Platforma nie wymaga głębokiej wiedzy o MCP – wystarczy znajomość GraphQL. Ukrywa złożoność protokołu, jednocześnie centralizuje krytyczne aspekty: bezpieczeństwo, autoryzację, monitoring, transport, standardy jakości.
Wszystko to działa w czasie rzeczywistym, ponieważ jak mówi Bergalis: prędkość AI mierzy się w minutach zamiast sprintach.
Kluczowe ogłoszenia: Rozwój platformy GraphOS
Bergalis i jej zespół ogłosili szereg nowości na całej platformie – od front-endu po infrastrukturę.
Apollo Client (Web & Mobile)
Ogłoszono Apollo Client 4 (web) z naciskiem na integrację z Modern TypeScript i Next.js. Co kluczowe dla wydajności, Client 4 ma dramatycznie mniejszy rozmiar (bundle size). Dodatkowo przedstawiono Client 2.0 (iOS) adaptujący nowy model współbieżności Swift 6.
Operator Kubernetes
Umożliwia deklaratywne zarządzanie Grafem (GraphOS objects) bezpośrednio z poziomu K8s. Jak pokazał JR, instalacja zajmuje dosłownie dwie komendy i odblokowuje zaawansowane strategie wdrażania (blue-green, canary) oraz integrację z GitOps (Flux, Argo CD).
Graph Artifacts
Wprowadzono rejestr zgodny z OCI, który pozwala na przechowywanie i referowanie konkretnych wersji schematu. Umożliwia to m.in. przypinanie routerów do danej wersji schemy lub natychmiastowy rollback do znanej, działającej konfiguracji.
Rozszerzone Connectory
Pakiet ulepszeń obejmujący dedykowane metryki i wgląd w Studio, framework do testów jednostkowych oraz nowe transformacje (np. funkcje matematyczne czy operacje na tablicach), pozwalające na deklaratywną zmianę danych z API bez pisania resolverów.
Checklist: Czy jesteś gotowy na agentic future?
Bergalis kończy mocnym stwierdzeniem: przygotowanie platformy dla AI to najważniejszy priorytet stojący przed każdą firmą w ciągu najbliższych kilku lat. Nie „jeden z ważnych” – najważniejszy.
Oto pytania, które warto sobie zadać:
Audyt wpływu AI:
- Czy przeanalizowaliśmy, jak trzy siły AI (kodowanie agentowe, eksplozja usług, agentowe UI) wpłyną konkretnie na nasz biznes i stos technologiczny?
Ocena strategii API:
- Czy nasza obecna strategia API (np. czysty REST) jest wystarczająco elastyczna dla niedeterministycznych zapytań od agentów AI?
- Czy nasze API są przygotowane na problem N² integracji w kontekście rosnącej liczby mikroserwisów?
Weryfikacja integracji:
- Czy mamy problem z szybkością integracji nowych usług lub starszych systemów (jak gRPC, bazy danych)?
- Czy proces integracji zajmuje tygodnie zamiast godzin?
Optymalizacja K8s:
- Jeśli działamy na Kubernetes, czy obecne zarządzanie Grafem jest zoptymalizowane pod kątem GitOps?
- Czy mamy możliwość deklaratywnego zarządzania infrastrukturą?
Eksperymenty z MCP:
- Czy zaczęliśmy już eksperymentować z protokołem MCP i udostępnianiem naszych danych jako „narzędzi” dla modeli językowych?
- Czy możesz łatwo testować wiele rozwiązań AI równocześnie?
Bezpieczeństwo i kontrola:
- Czy potrafisz precyzyjnie kontrolować, które dane trafiają do modeli AI?
- Czy masz centralną warstwę autoryzacji dla narzędzi AI?
- Czy możesz ograniczyć context window do niezbędnego minimum?
Operacje i observability:
- Czy masz monitoring i metryki dla narzędzi używanych przez agenty?
- Czy potrafisz debugować zachowanie agentów w produkcji?
- Czy wiesz, które narzędzia są faktycznie wykorzystywane?
Zespół i procesy:
- Czy zespoły mogą tworzyć narzędzia AI w trybie samoobsługi?
- Czy wdrożenie narzędzia zajmuje minuty czy dni?
- Czy pomimo wysokich stawek możesz iterować szybko?
Co to znaczy dla nas
Bergalis kończy refleksją, która wykracza poza technologię. Historia technologii to historia ludzi budujących niesamowite rzeczy, aby uczynić świat lepszym miejscem. Są momenty, kiedy wszystko zmienia się bardzo szybko i dramatycznie – i zmienia się na dobre.
Swoją prezentację zamknęła mocnym przesłaniem do inżynierów platformy i backendu: „Jeśli czujesz się pomijany przez AI […] Myślę, że w rzeczywistości trzymasz w rękach jeden z najważniejszych składników sukcesu Twojej firmy”.
Każda firma będzie musiała zmierzyć się z AI w ciągu najbliższych lat. To nie jest opcjonalne, dlatego sposób, w jaki budujesz infrastrukturę dla AI dzisiaj, określi, jak szybko możesz się adaptować.
GraphQL przestaje być tylko technologią do budowania API. Staje się fundamentem dla aplikacji AI – deklaratywnym, bezpiecznym, skalowalnym. Apollo pokazuje, jak to może wyglądać w praktyce. MCP Server to nie teoria – to działający kod. Watson wspomina, że Apollo MCP Server jest częścią hackathonu na konferencji – można go testować i budować z nim już teraz.
To właśnie czyni to wystąpienie interesującym. Nie mówi o przyszłości, która kiedyś nadejdzie, lecz o przyszłości, która dzieje się teraz.
Przykładowe prompty z demo – jak testować narzędzia AI
Watson podczas demo użył kilku promptów, aby pokazać różne tryby pracy z AI. Warto zobaczyć, jak wyglądają takie prompty w praktyce i kiedy je stosować.
Prompt 1: Agentic Development (do budowy grafu)
Prompt (rekonstrukcja):
Biorąc pod uwagę te pliki OpenAPI [flightradar24.yaml, weather.yaml], stwórz graf. Dla danego lotniska chcę pobierać loty przychodzące i wychodzące oraz aktualną pogodę dla tego lotniska. Oto mój klucz API...
Kiedy stosować: Jest to prompt deweloperski, skierowany do agenta AI (np. Claude) wyposażonego w narzędzia GraphOS MCP. Stosuje się go, aby autonomicznie zbudować nowy, połączony Supergraph z istniejących, niepowiązanych ze sobą interfejsów API. Celem jest delegowanie na AI złożonego zadania inżynieryjnego.
Prompt 2: Schema Discovery (do eksploracji grafu)
Prompt:
Can you search my graph and tell me what I can do with it?
Kiedy stosować: Jest to również prompt deweloperski, służący do odkrywania możliwości istniejącego grafu. Stosuje się go, gdy deweloper (lub nawet analityk biznesowy) chce szybko zrozumieć, jakie dane i operacje są dostępne w grafie, bez konieczności czytania technicznej dokumentacji.
Prompt 3: Agentic Application (do konsumpcji narzędzia)
Prompt:
Can you tell me about the flights coming out of Sacramento International?
Kiedy stosować: Jest to prompt użytkownika końcowego, skierowany do agenta aplikacyjnego (np. Goose, ChatGPT). Agent tłumaczy język naturalny na wywołanie konkretnego narzędzia udostępnionego przez Apollo MCP Server (w tym przypadku narzędzia outbound_flights_for_airport). Stosuje się go w docelowej aplikacji, aby umożliwić użytkownikom swobodną interakcję z danymi.
Dlaczego te prompty są proste
Watson celowo używa prostych, naturalnych promptów. Nie ma tu skomplikowanych instrukcji czy szczegółowych parametrów. Dlaczego?
Bo test narzędzia MCP to test, czy agent potrafi je użyć autonomicznie. Jeśli musisz podawać precyzyjne komendy, narzędzie nie jest wystarczająco dobrze zaprojektowane. Dobry opis narzędzia (który edytujesz w operacji GraphQL) robi różnicę między agentem, który potrafi użyć narzędzia intuicyjnie, a tym, który potrzebuje instrukcji obsługi.
Kluczowy insight
Paradoks narzędzi AI
Standardowo myślimy: Aby stworzyć nowe narzędzie dla AI (np. endpoint MCP), musimy rozpocząć nowy projekt: napisać kod serwera, zarządzać bezpieczeństwem, wdrożyć nową usługę i ją monitorować.
W praktyce okazuje się, że: najbardziej efektywnym i najszybszym sposobem na stworzenie produkcyjnego narzędzia AI jest niepisanie żadnego kodu. Wystarczy zdefiniować operację GraphQL (określającą, co AI ma widzieć) i zapisać ją w GraphOS.
Dlaczego to jest istotne: To zmienia cykl deweloperski z tygodni na minuty. Zamiast wdrażać serwery, po prostu piszemy i aktualizujemy zapytania, a platforma (Apollo MCP Server) zajmuje się resztą – bezpieczeństwem, udostępnianiem i powiadamianiem agentów o zmianach.
Test na jutro: Następnym razem gdy zespół produktowy poprosi o „udostępnienie danych dla AI”, zamiast tworzyć nowy endpoint REST/MCP od zera, spróbuj zdefiniować te dane jako zapytanie GraphQL i sprawdź, czy możesz je udostępnić przez serwer MCP w ciągu jednej godziny.
Ten wpis jest częścią mojej kolekcji notatek z ciekawych podcastów, webinarów i innych treści, które uważam za wartościowe i do których sam chcę wracać. Jeśli chcesz sprawdzić oryginalne źródło, znajdziesz je tutaj: GraphQL Summit 2025 Keynote – Building for the agentic future
