Sie sind nicht angemeldet.

Lieber Besucher, herzlich willkommen bei: Cache Paradies Nordhessen. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

1

Mittwoch, 17. April 2013, 17:50

GSAK + PQs: Best Practice?

Moin zusammen,

ich bin auf der Suche nach Ideen, wie man seine Caches in GSAK optimal aktuell hält, also man beispielsweise auch mitbekommt, wenn Caches archiviert werden (die kommen ja nicht mehr per PQ) oder neue hinzukommen.

Die meisten handhaben es vermutlich so, dass sie sich ALLE Caches aus dem Zielgebiet per Pocket Query schicken lassen. Sind es viele Caches, macht man das verteilt über mehrere Pocket Queries an an verschiedenen Wochentagen.

Das o.g. Vorgehen scheint mir unnötig. Denn eigentlich bin ich doch nur an neuen Caches interessiert. Alle bereits in der Datenbank vorhandenen Caches kann ich doch direkt in GSAK aktualisieren.Dafür braucht es kein PQ.

Frage 1: Was spricht dagegen die Caches direkt in GSAK zu aktualisieren?


Frage 2: Warum setzt man in der PQ nicht einfach die Option "Published last week"?

Wird jetzt ein Cache archiviert, kommt dieser nicht mehr mit der Pocket Query. GSAK bekommt also erstmal nichts davon mit (es sei denn ich aktualisiere die Caches per GSAK, s.o.). Jetzt bin ich beim Recherchieren über eine Lösung gestolpert, die überprüft, wie lange ein Cache bereits keine Informationen mehr durch ein Query erhalten hat. Ist dieser Zeitraum länger, so kann man davon ausgehen, dass er archiviert wurde. Nachteil: Es gibt auch andere Gründe, warum er nicht aktualisiert wird. Man muss also alle Caches erneut prüfen. Das kann man nicht jeden Tag machen, also rennt man mit alten Cachedaten durch Wald und Wiesen.

Das hört sich für mach einer Frickellösung an, sauber ist etwas anderes.

Frage 3: Wie erfasst ihr archivierte Caches?

Ein weiteres Problem sehe ich bei gefundenen Caches. Ich habe meine gefundenen Caches in einer eigenen Datenbank. Hauptsächlich damit das Statistik-Makro diese schön auswerten kann. Jetzt stellt euch folgende Situation vor: Mein PQ läuft am Montag und Freitag. Diesen enthalten nur Caches, die ich noch nicht gefunden habe. Am Dienstag finde ich einen Cache, setze diesen in GSAK auf "gefunden" und verschiebe ihn in die "Gefunden"-Datenbank . Am Mittwoch importiere ich das Montgs-PQ in GSAK. Der Cache wird erneut importiert, weil ja nicht mehr in der Cachedatenbank. Wenn ich nicht haargenau den Import von PQs synchronisiere (also nur importieren, wenn gerade generiert), dann tritt dieses Problem recht häufig auf.


Frage 4: Ist es sinnvoll gefundene Caches in einer eigenen Datenbank zu haben?


Frage 5: Wie verhindert ihr, dass bereits gefundene Caches erneut importiert werden?




Wie ihr seht habe ich einige Fragen. Vielleicht gibt es ja den ein oder anderen, der mir einen Tipp geben kann.

2

Mittwoch, 17. April 2013, 20:07

Moin zusammen,
...
Frage 1: Was spricht dagegen die Caches direkt in GSAK zu aktualisieren?

Frage 2: Warum setzt man in der PQ nicht einfach die Option "Published last week"?

Frage 3: Wie erfasst ihr archivierte Caches?

Frage 4: Ist es sinnvoll gefundene Caches in einer eigenen Datenbank zu haben?

Frage 5: Wie verhindert ihr, dass bereits gefundene Caches erneut importiert werden?

Wie ihr seht habe ich einige Fragen. Vielleicht gibt es ja den ein oder anderen, der mir einen Tipp geben kann.


Servus Christoph,
hier mal meine Vorgehensweise.
Ich habe von meinen Homezonekoordinaten einen 50 Kilometern Radius der mit den PQ abgedeckt wird. Die sind alle in einer Datenbank, zur Zeit ca. 10400 Stück, auch die bereits von mir gefundenen Caches. Archivierte Caches die ich gefunden habe werden in eine extra DB verschoben.

Meine insgesamt 11 PQs sind nach gelegt Datum (Placed During, between) aufgeteilt. Damit komme ich von von Jan. 98 bis 31.12.2013.
Die erste Einrichtung, sich bis an die 1000 Caches zu tasten ist etwas lästig aber trotzdem schnell gemacht. 2 mal im Jahr werden die Zeiträume geändert um die archivierten Caches wieder auszugleichen und den max. Rahmen von 1000 Caches auszuschöpfen. Die PQ werden an 3 Tagen die Woche erstellt und dann direkt aus GSAK heruntergeladen (Geocaching.com Zugriff Pocket Querys herunterladen) und importiert. Mir reicht es aus und ich "spare" mir die API Aufrufe für andere Sachen auf. Zumal ich nur über DSL Light verfüge und Du nach 1000 API Calls eine Stunde Timeout aufgebrummt bekommst. Die PQ für das aktuelle Jahr wird alle 2 Tage erstellt und importiert.

Bei einer Tour arbeite ich vorher mit einem großzügigen Filter und lasse ich die Cache-Daten aktualisieren- nur die Light Version. Dabei werden nur geänderte Koordinaten, Verfügbar, Tempor., Archiviert übertragen, keine Logs oder Fav. Points. Von den Light (reduzierten Aufrufen) stehen dir 10.000 für 24 Stunden zur Verfügung. Dadurch habe ich immer genug Reserve um mir mal schnell eine DB zu bauen wenn es mal wohin gehen soll, wenn der 50 Kilometer Radius überschritten wird.


Für die Archivierung von Caches habe ich eine Benachrichtigung eingerichtet und mit mit dem Makro Review for Archive.gsk prüfe ich nach dem letzten Import der PQ die Caches die archiviert wurden.

Zu 4. Ja, aber nur die durch die My Finds PQ erstellt werden. Statistikmakros arbeiten oft mit einer extra Datenbank.
Zu 5. Stört mich nicht. Denn bereits gfefunden Caches können u. U. hilfreich sein. Abstandsregel :whistling:

Viele Grüße
Stefan

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Hussel« (18. April 2013, 18:41)


3

Donnerstag, 18. April 2013, 11:40

Unter geocaching.com-Zugriffe gibt es den Punkt Statusprüfung. Damit kann man sehr einfach die archivierten ermitteln, da der Status jedes Caches in der Liste aktualisiert wird.

4

Donnerstag, 18. April 2013, 11:57

...was bei einer Datenbank mit 15000 Caches durchaus ein "paar" Minuten dauern kann. ;)
Besuche unser Project Mega Märchenhaft in Kassel virtuell auf www.gc-grimm.de und natürlich am 4. August 2018 real in den Messehallen Kassel!

odink

Büttel

  • »odink« ist männlich

Beiträge: 457

Wohnort: Kassel-Oberzwehren

Beruf: Laborratte

  • Nachricht senden

5

Donnerstag, 18. April 2013, 15:40

...was bei einer Datenbank mit 15000 Caches durchaus ein "paar" Minuten dauern kann. ;)

Zumal Du, slebst in der "reduzieten" Form nur 10000 abrufen darfst....
Zertifiziet nach ISO 9001 ;)
Unsere Coins bei myGeoDB

6

Donnerstag, 18. April 2013, 21:32

Frage 1: Was spricht dagegen die Caches direkt in GSAK zu aktualisieren?
Frage 2: Warum setzt man in der PQ nicht einfach die Option "Published last week"?
Frage 3: Wie erfasst ihr archivierte Caches?
Frage 4: Ist es sinnvoll gefundene Caches in einer eigenen Datenbank zu haben?
Frage 5: Wie verhindert ihr, dass bereits gefundene Caches erneut importiert werden?

Nachdem ich mir zu viel Geläster meines Herzallerliebsten anhören mußte, daß ich deaktivierte und archvierte Caches auf dem Gerät dabei habe, hab ich meine Vorgehensweise mit GSAK grundsätzlich überdacht und geändert.


Ich arbeite mit vielen Datenbanken. Funde und eigene für die statistische Auswertung.
Empfehlungen aus ferneren Gegenden in eine ToDo.
Jede weitere/längere Tour bekommt ihre eigene Datenbank, die nach der Tour gelöscht wird.
Und dann natürlich zwei quasi Homezones, einmal Kassel und bei meinem Freund.

Die Kasseldatenbank hat logischerweise den meisten Zugriff.
Plane ich einen Ausflug, wird ein Zielcache in GSAK geladen und als Mittelpunkt gesetzt. Dann per Api Abfrage um diesen Zielpunkt 10km 500 Caches abgerufen.
Sind noch ältere gpx aus dem Bereich in der Datenbank wird nach Alter der gpx gefiltert und alles ältere gelöscht. Ein Statusupdate klärt kurzfristig deaktivertes und archiviertes, was ich dann aus der Datenbank lösche.
Beim Aufräumen nach dem Ausflug wird dann von den Heimatkoordinaten aus alles weiter entfernt als 50km aus der Datenbank gelöscht.
Dadurch halte ich die Datenbank unter 2000 Caches und vor allem aktuell.

Frage 1: Was spricht dagegen die Caches direkt in GSAK zu aktualisieren?
gar nichts, meine Api hab ich bisher nur einmal ausgereizt, als ich Favoritenpunkte bei Funden aktualisieren wollte.

Frage 2: Warum setzt man in der PQ nicht einfach die Option "Published last week"?
Ich frage keine PQs mehr ab, da ich über die Api und GSAK die gpx laden kann.

Frage 3: Wie erfasst ihr archivierte Caches?

Nach einem Statuscheck wird alles deaktivierte und archivierte gelöscht.

Frage 4: Ist es sinnvoll gefundene Caches in einer eigenen Datenbank zu haben?
Ich hab eigene Caches und Funde in einer extra Datenbank, damit kann das Statistikmakro einfacher umgehen.

Frage 5: Wie verhindert ihr, dass bereits gefundene Caches erneut importiert werden?

Werden sie nicht. GSAK erkennt bei der Abfrage, ob der Cache von Dir gefunden wurde.
Wird per PQ eingelesen, dann kommen sie natürlich wieder in die Datenbank, wenn die PQ veraltet ist.
Geocaching augments reality in a different way. It adds a layer of the magical to the mundane. Ethan Zuckerman

7

Freitag, 19. April 2013, 09:09

Vielen Dank für eure sehr hilfreichen Antworten. An der ein oder anderen Stelle war mein Denkweise wohl etwas eingeschränkt. Beispielsweise kann ich ja durchaus alle Caches in einer DB (auch gefundene) und mit simplen Filtern bastel ich mir die Anzeige dann so zurecht, wie ich es brauche.

Die von Hussel beschrieben Vorgehensweise scheint die zu sein, die vorrangig eingesetzt werden. Aus o.g genannten Gründe halte ich sie aber für unnötig kompliziert. Ich werde es mal testweise mit der API-Aktualisierung versuchen. Je nachdem wie gut das klappt werde ich dann auf die PQ-Variante wechseln.
Unter geocaching.com-Zugriffe gibt es den Punkt Statusprüfung. Damit kann man sehr einfach die archivierten ermitteln, da der Status jedes Caches in der Liste aktualisiert wird.
Stimmt, den gibt es ja auch noch und der Vorteil ist, dass es das API-Limit nicht verbraucht.
...was bei einer Datenbank mit 15000 Caches durchaus ein "paar" Minuten dauern kann.
Ich habe es mal gemessen. Meine Datenbank hat 1000 Caches. Der Aktualisierungsvorgang hat ziemlich genau 1:30min gedauert. Wenn GS keine Strafrunden einbaut skaliert das auch mit 15000 Caches. D.h. so ein Vorgang würde dann gute 20 Minuten dauern. Das ist wohl verkraftbar. Zumal es in meinen Augen keinen Sinn ergibt diesen Vorgang für die gesamte DB zu machen. Vielmehr würde ich es ständig für die erweiterte Homezone von max 15km und von ausgewählten Regionen, wenn ich dort eine Tour plane.

Eine vollständige Aktualisierung dauert jedoch viel länger. Bei mir waren das ca. 6min für 1000 Caches. Aber auch das ist verkraftbar, wenn man unabhängig von PQs sein möchte. Dann schmeißt man die Aktualisierung morgens oder abend beim Essen an und danach ist es fertig. Außerdem müssen keine bereits gefundenen Caches aktualisiert werden. Wenn es immer noch zu viele sind, kann man auch im GSAK den Filter etwas schärfer einstellen, s.o.

Wirklich schön wäre es, wenn es ein Makro gibt, das genau das macht. Also abhängig vom API-Limit, Uhrzeit, etc im Hintergrund die Caches aktualisiert.
Ich arbeite mit vielen Datenbanken. Funde und eigene für die statistische Auswertung.
Empfehlungen aus ferneren Gegenden in eine ToDo.
Jede weitere/längere Tour bekommt ihre eigene Datenbank, die nach der Tour gelöscht wird.
Und dann natürlich zwei quasi Homezones, einmal Kassel und bei meinem Freund.
Mein Setup ist sehr ähnlich, weil eben auch mehrere "Homezones". Aktuell habe ich Empfehlungen und gelöste Mysteries noch in eigenen Bookmark-Listen bei GC.com, die ich dann per PQ ständig aktualisiert erhalte. Bei den gelösten Mysteries werde ich aber wohl jetzt auf die GSAK-interne Funktion umsteigen.
meine Api hab ich bisher nur einmal ausgereizt, als ich Favoritenpunkte bei Funden aktualisieren wollte.
Genau. Und hier frage ich mich, wie das die PQ-Nutzer machen? Um an die FPs zu kommen müssen sie doch auch die API in Anspruch nehmen und wenn ich das muss, kann ich auch gleich meine ganzen Caches per API aktualisieren.

8

Freitag, 19. April 2013, 09:50

Jetzt habe ich aber mal eine Frage dazu:
wenn ich mir einen Cache als Zentrum setze und möchte drumherum 4000 Caches gefiltert haben (also die nächstgelegenen von diesem Cache), wie bzw. wo muss ich denn da einen Filter einrichten?
Dann könnte ich nämlich nur diese durch einen Statuscheck aktualisieren und müsste nicht meine ganze Default-DB durchjagen.

Danke für eure Hilfe schon mal!!!
Besuche unser Project Mega Märchenhaft in Kassel virtuell auf www.gc-grimm.de und natürlich am 4. August 2018 real in den Messehallen Kassel!

10

Montag, 13. Mai 2013, 23:41

Einige nutzen ja auch das Plugin "Google_Map_V3". Wenn man eine Tour plant kann man damit auf der Karte grob den Bereich mit einem Polygon abstecken und diesen Bereich anschließend zurück an GSAK senden. Die Caches, die man dann im Filter hat, kann man dann aktualisieren. So spart man sich viele (meist) unnötige API-Aufrufe.

Ähnliche Themen

Verwendung der Groundspeak Geocaching Symbole mit freundlicher Genehmigung von Groundspeak, Inc.