Badanie Qwairy analizuje mechanizm query fan-out na podstawie 102 000 zapytań generowanych przez silniki AI, pokazując różnice między ChatGPT a Perplexity w sposobie przetwarzania pytań użytkowników.

Jest to krótka charakterystyka przygotowana przez AI i pełni funkcję informacyjną, a nie interpretacyjną. Ludzka praca kończy się tutaj na selekcji badań i raportów, z którymi z tych czy innych powodów warto się moim zdaniem zapoznać. Opis badania oraz wyimek statystyk powinny pomóc w ocenie, czy dane te są interesujące.

Jak ChatGPT i Perplexity przetwarzają zapytania użytkowników

  • Kto przeprowadził badanie: Qwairy – platforma analizująca widoczność marek w silnikach AI, specjalizująca się w monitorowaniu tego, jak AI generują odpowiedzi i cytują źródła
  • Próbka badawcza: 102 018 zapytań wygenerowanych przez systemy AI, pochodzących z 38 418 unikalnych promptów użytkowników
  • Metodologia: analiza zapytań generowanych przez ChatGPT i Perplexity, obserwacja mechanizmu query fan-out (rozbijania jednego pytania na wiele podzapytań)
  • Zakres czasowy: dane zebrane między wrześniem a listopadem 2025 roku
  • Rynek/region: badanie międzynarodowe, bez ograniczeń geograficznych

Różnice w przetwarzaniu zapytań przez różne silniki AI

Oto kluczowe dane z badania dotyczące mechanizmu query fan-out:

  • 70,5% promptów w Perplexity generuje dokładnie jedno zapytanie, podczas gdy w ChatGPT tylko 32,7% – oznacza to, że ChatGPT dwa razy częściej rozbija pytanie użytkownika na kilka podzapytań
  • Słowa kluczowe wywołujące najwięcej podzapytań:
  • “List” generuje średnio 49,01 zapytań (14x więcej niż średnia)
  • “Top” generuje średnio 8,44 zapytań (2,4x więcej niż średnia)
  • “Comparison/vs” generuje średnio 5,67 zapytań (1,6x więcej niż średnia)
  • Silniki AI automatycznie dodają kontekst do zapytań:
  • Rok “2025” dodawany w 28,1% zapytań
  • “France” w 13,9% przypadków
  • “meilleur/best” w 16,7% zapytań
  • 89% identycznych promptów w ChatGPT prowadzi do różnych zapytań przy kolejnych wykonaniach, podczas gdy w Perplexity 93% promptów generuje dokładnie te same podzapytania
  • Zapytania informacyjne (why, what is, definicje) generują mało podzapytań, podczas gdy zapytania ewaluacyjne (top, best, porównania) uruchamiają rozbudowany mechanizm fan-out

Badanie sugeruje, że zrozumienie mechanizmu query fan-out może być istotne dla strategii SEO, szczególnie w kontekście zapytań komercyjnych i porównawczych, gdzie pozycjonowanie na wielu wariantach tego samego zapytania zwiększa szanse na cytowanie przez AI.

Źródło

Te artykuły powinny Cię zainteresować

  1. 3/4 najlepszych produktów wg ChataGPT znajduje się w karuzeli Google Shopping
  2. AI są bardzo niespójne w rekomendowaniu marek i produktów
  3. Badanie 2,5 mln linków wewnętrznych pokazuje, że seowcy potrafią linkować
  4. Topical Authority istotne także w kontekście AI Overview. Na to wskazują wnioski z analizy fan-out queries
  5. Użycie schemy przez AI Google? Niemal udało się to udowodnić

O autorze

Nazywam się Michał Małysa i od wielu lat zajmuję się zawodowo SEO oraz analizą treści, a od 2023 roku w zakres moich obowiązków i zainteresowań dość naturalnie weszło AI. Na stronie MałySEO porządkuję wiedzę o pozycjonowaniu stron internetowych, AI Search oraz działaniu LLM-ów. Prowadzę również MałySEO Newsletter, do którego subskrypcji serdecznie Cię zachęcam na podstronie najlepszego w Polsce newslettera SEO.

Jako że przygotowanie materiałów do MałySEO Newslettera oraz na bloga zajmuje nieco czasu, może zaświtać Ci w głowie dość miły z mojej perspektywy pomysł drobnego rewanżu. Jeżeli uznasz, że lektura tego wpisu była dla Ciebie czymś więcej, niż tylko szybkim odklepaniem randomowej internetowej treści, możesz postawić mi kawkę na buycoffee.to. Z góry dziękuję!

Postaw mi kawę na buycoffee.to

Jeżeli z jakiegoś powodu potrzebujesz się ze mną skontaktować, wyślij mail na adres kontakt[at]michalmalysa.pl