BE:Squads/OpenGovernment/Protokolle/20140203/3.2.2014
2014-02-03
BVVBot
https://wiki.piratenpartei.de/BE:BVVupdates
https://github.com/mionysos/bvvbot
piratenradar
https://github.com/xedp3x/GeoRIS/blob/master/view/login.php
sonnendeck
http://www.glottotopia.org/solr/piratenbvv/browse
https://github.com/Glottotopia/piratenzeug/blob/master/allrissqog.py
Webservice Dsnr2geo
https://lists.okfn.org/mailman/listinfo/ris
osm stammtisch cbase
verbindung mit redmine nk, um geodata ueber kartenseite in redmine zu kriegen
Zusammenarbeit mit OpenDataCity (Oranienstrasse Xberg)
wiki als datenhaltung von geokoordinaten
FK DS/0936/IV Hundekot auf der Wendenwiese 52.32 13.21 "Wendenwiese" auto
DS/0936/IV
Forwarded message -------
> > Hallo, > > kurze Vorstellung: Ich bin der Martin, Masterstudent kurz vor dem > Abschluss an der Universität Leipzig. Ich arbeite vor allem mit Semantic > Web Technologien. In diesem Rahmen existiert auch das Projekt Publink > (http://lod2.eu/Article/Publink.html). Einfach gesagt, stellen wir > unsere Hilfe in technischer Sicht für (äußerst) begrenzte Zeit > verschiedenen Projekten zur Verfügung, damit diese Teil der LOD-Cloud > (http://lod-cloud.net/) werden können. Wir machen also aus > (semi-)strukturierten Daten semantisch annotierte, strukturierte Daten. > Für den Fall von ALLRIS heißt das folgendes: > > Ein Scraper wurde erstellt, der die ALLRIS-Daten aus dem Web kratzt: > http://code.google.com/p/allris-scraper/. Er ist Java-basiert und formt > zuerst Java-Objekte die local gecasht werden aus den Daten in Allris. > Drucksachen, Fraktionen und Politiker werden eigene Objekte. Diese > werden dann mit einem Writer zu einem RDF-Dump, der die Daten enthält. > Darauf können dann, mittels einer externen Datenbank Abfragen gemacht > werden. Dabei sind Politiker mit Drucksachen/Anträgen verknüpft, die sie > gestellt haben. Für Fraktionen das gleiche. Ein Frontend ist in Arbeit, > allerdings bin ich dafür nicht wirklich gut gerüstet. > Was ich allerdings machen kann, ist mittels Nominatim > (http://wiki.openstreetmap.org/wiki/Nominatim) und etwas Named Entity > Recognition Geocodes hinzuzufügen. Die Präzision so eines Verfahrens ist > natürlich nicht so gut wie händisches Eintragen, da die Fehler von > Nominatim bzw openstreetmap und der automatischen Erkennung sich > zumindest addieren. Mehr Daten sind aber imho nie verkehrt. Sind erstmal > Koordinaten in den Datensätzen, ist eine visuelle Darstellung schnell > gemacht. > > Falls ihr es noch nicht wusstet: Allris hat eine Schmalspur-API, die > XML-Metadaten ausgibt: > http://code.google.com/p/allris-scraper/wiki/ScrapingAllrisHowto > > Was den Traffic angeht: Wenn ich alle nur Drucksachen (ca 5700) scrape, > was ich bisher einmal gemacht habe, läuft das Ding 4 Stunden. Den > Timeout muss ich dabei auf 20/40 Sekunden erhöhen mit 10 Sekunden wait > dazwischen. Sonst krieg ich nur request timeouts. Wenn sowas einen DoS > konstituiert, haben die noch nie einen DoS erlebt. > > TL;DR: > > Wir haben einen Scraper. Er scrapt zur Zeit Drucksachen, Fraktionen und > Politiker und verlinkt diese. Ich kann ihn anpassen um noch mehr zu > scrapen (Was?). Er wirft RDF raus. Jemand könnte dafür leicht eine > SQL-Ausgabe schreiben. Es gibt momentan kein Frontend. Geocodes können > automatisch erstellt werden, mit mittlerer bis hoher Präzision. Allris > ist ein suboptimals System. > > gruß, martin >
TO DO:
-> Gregor fragt bei Mediawiki nach ob n Botzugriff, auf das Wiki (n Besitzer) okay is!? (einmal pro woche ca. 100)
-> Gregor: Termin bei OpenDataCity am besten dieser Do...nicht der 11./12.02.
-> Treffen mit Sam!
-> Sebastian stellt eines Webservice zur Verfügung ,der DSNR in Geokoordinaten übersetzt
-> Sebastian baut etwas, dass den Output dieses Webservice ins Piratewiki dumpt, wo er dann händisch korrigiert werden kann