Lieber Besucher, herzlich willkommen bei: Cache Paradies Nordhessen. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.
Moin zusammen,
...
Frage 1: Was spricht dagegen die Caches direkt in GSAK zu aktualisieren?
Frage 2: Warum setzt man in der PQ nicht einfach die Option "Published last week"?
Frage 3: Wie erfasst ihr archivierte Caches?
Frage 4: Ist es sinnvoll gefundene Caches in einer eigenen Datenbank zu haben?
Frage 5: Wie verhindert ihr, dass bereits gefundene Caches erneut importiert werden?
Wie ihr seht habe ich einige Fragen. Vielleicht gibt es ja den ein oder anderen, der mir einen Tipp geben kann.
Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Hussel« (18. April 2013, 18:41)
...was bei einer Datenbank mit 15000 Caches durchaus ein "paar" Minuten dauern kann.
Nachdem ich mir zu viel Geläster meines Herzallerliebsten anhören mußte, daß ich deaktivierte und archvierte Caches auf dem Gerät dabei habe, hab ich meine Vorgehensweise mit GSAK grundsätzlich überdacht und geändert.Frage 1: Was spricht dagegen die Caches direkt in GSAK zu aktualisieren?
Frage 2: Warum setzt man in der PQ nicht einfach die Option "Published last week"?
Frage 3: Wie erfasst ihr archivierte Caches?
Frage 4: Ist es sinnvoll gefundene Caches in einer eigenen Datenbank zu haben?
Frage 5: Wie verhindert ihr, dass bereits gefundene Caches erneut importiert werden?
Stimmt, den gibt es ja auch noch und der Vorteil ist, dass es das API-Limit nicht verbraucht.Unter geocaching.com-Zugriffe gibt es den Punkt Statusprüfung. Damit kann man sehr einfach die archivierten ermitteln, da der Status jedes Caches in der Liste aktualisiert wird.
Ich habe es mal gemessen. Meine Datenbank hat 1000 Caches. Der Aktualisierungsvorgang hat ziemlich genau 1:30min gedauert. Wenn GS keine Strafrunden einbaut skaliert das auch mit 15000 Caches. D.h. so ein Vorgang würde dann gute 20 Minuten dauern. Das ist wohl verkraftbar. Zumal es in meinen Augen keinen Sinn ergibt diesen Vorgang für die gesamte DB zu machen. Vielmehr würde ich es ständig für die erweiterte Homezone von max 15km und von ausgewählten Regionen, wenn ich dort eine Tour plane....was bei einer Datenbank mit 15000 Caches durchaus ein "paar" Minuten dauern kann.
Mein Setup ist sehr ähnlich, weil eben auch mehrere "Homezones". Aktuell habe ich Empfehlungen und gelöste Mysteries noch in eigenen Bookmark-Listen bei GC.com, die ich dann per PQ ständig aktualisiert erhalte. Bei den gelösten Mysteries werde ich aber wohl jetzt auf die GSAK-interne Funktion umsteigen.Ich arbeite mit vielen Datenbanken. Funde und eigene für die statistische Auswertung.
Empfehlungen aus ferneren Gegenden in eine ToDo.
Jede weitere/längere Tour bekommt ihre eigene Datenbank, die nach der Tour gelöscht wird.
Und dann natürlich zwei quasi Homezones, einmal Kassel und bei meinem Freund.
Genau. Und hier frage ich mich, wie das die PQ-Nutzer machen? Um an die FPs zu kommen müssen sie doch auch die API in Anspruch nehmen und wenn ich das muss, kann ich auch gleich meine ganzen Caches per API aktualisieren.meine Api hab ich bisher nur einmal ausgereizt, als ich Favoritenpunkte bei Funden aktualisieren wollte.
Forensoftware: Burning Board® 3.1.8, entwickelt von WoltLab® GmbH