Jak řešit problém s načítáním velkého množství dat?
Chtěl bych se zeptat na jednu věc, která mě trápí už nějakou dobu. Pracuji na projektu, kde máme opravdu hodně dat a když se pokouším je načíst přes naše API pomocí GraphQL, je to prostě pomalé a občas to úplně spadne. Skoro mám pocit, že se ztrácím v tom, jak to optimalizovat. Zkoušel jsem různé techniky, ale výsledky nejsou takové, jaké bych si představoval. Nechci, aby uživatelé museli čekat na načtení informací, když to trvá víc než pár vteřin. Napadlo mě rozdělení dotazů do menších částí nebo snad stránkování? Ale nejsem si jistý, jestli by to mohlo vyřešit problém s výkonem. Co třeba lazy loading nebo caching? Někde jsem četl, že použití fragmentů může zlepšit výkon dotazů, ale zatím jsem to nevyzkoušel. Mám také obavy z toho, jak správně nastavit resolvery tak, aby efektivně pracovaly s velkým objemem dat. Jaké máte zkušenosti s tímto tématem? Jaké nástroje nebo techniky byste doporučili pro efektivní načítání velkého množství dat v GraphQL? Jaké jsou nejlepší praktiky pro optimalizaci těchto dotazů? Děkuji za každou radu!