De inspiratie voor SiteJuggler

Ken je dat, dan loop je tegen een probleem aan en bedenk je een oplossing. Maar vervolgens bedenk je ook als ik ook dit toevoeg los ik ook een ander probleem op, en voor je het weet ben je eigenlijk je originele probleem helemaal vergeten.

Wel zo was SiteJuggler bedacht.

Het originele probleem

Een aantal jaar geleden had ik een api gemaakt waarmee medewerkers eenvoudig bestanden konden uploaden en daarmee een link hadden naar het bestand.

Voor de tool werkte men met een FTP verbinding, dit was voor de gebruikersvriendelijkheid verre van wenselijk. En daarom was er een eenvoudige upload oplossing gemaakt.

Dit werkte in het begin goed echter uploadde men vaak enorme afbeeldingen en gebruikte die vervolgens op de website waardoor het de laadtijd ten niet deden.

Dus was de vervolg oplossing om een dedicated afbeelding upload API te starten. Hier uploaden men de afbeeldingen en kregen die een link terug, echter werden de afbeeldingen vervolgens geoptimalisseerd voor het web.

De oude manier werd weg gehaald maar de afbeeldingen niet. Dit kwam omdat niet duidelijk was waar de afbeeldingen allemaal gebruikt werden binnen de website.
Nu kun je loggen als een afbeelding wordt opgevraagd waar die vandaan komt, maar dan moet men wel de afbeelding ophalen.

Hiermee was dus het idee ontstaan om een crawler te maken die een website afging zodat je eenvoudig kon vinden welke urls er allemaal gelinkt werden.
Dan konden eenvoudig de afbeeldingen gevonden worden en overgezet.

Maar als dit kan, dan kan ook...

Met het idee om een crawler te maken om links te vinden kwamen dan ook meteen vervolg ideeen. Want als je dan toch aan het crawlen bent kun je toch ook;

Checken op resultaat

Voor de gebruikerservaring is het belangerijk dat als iemand een link volgt dat die het ook doet. Dus als je dan toch alles af gaat controleer dan ook dat de pagina te bereiken is en geen dode link/404 pagina is.

De response tijd controleren

Mensen willen een snellen pagina. Maar door de loop van de tijd en allerlei dynamische content weten we niet hoe onze website het doet. Dus is het handig als periodiek gecontroleerd wordt of er geen trage pagina's zijn.

SEO checks doen

Wel als je toch alle content onder ogen krijgt kun je meteen controleren of de basis SEO goed zit. Controleer bijvoorbeeld dat er altijd een en niet meer H1 headers aanwezig is.

Veiligheidchecks

De ontwikkeling staat niet stil en het is dus handig om een automatische checker te hebben die controleert dat je website de laatste best practices volgt.

En nog veel meer

En potentieel heeft iemand een wens welke nog niet bedacht is. Waardoor het dus noodzakelijk is om de data eenvoudig te kunnen exporteren om er zelf mee aan de slag te kunnen

En toen was er SiteJuggler

Maar er is toch "vul tool in", potentieel heb je gelijk en is er een tool die een van die dingen beter doet.
Het gaat er bij mij dan ook om dat dit een gebruiksvriendelijke tool is voor mensen die net begonnen zijn.

De eerste alfa versie

Inmiddels heb ik ook een versie welke ik gebruik voor het testen. In mijn volgende blog post hoop ik te kunnen zeggen dat de eerste alfa versie beschikbaar is.

Bedankt voor het lezen en tot de volgende keer!

Martijn