Samstag, 3. August 2013

Database Publishing und »good enough data«

Dies ist ein Beitrag vom 9. 5. 2011, übernommen aus meinem Posterous Blog. Da er kaum etwas von seiner Aktualität eingebüßt hat, stelle ich ihn hier noch mal online.
Im September 2009 hatten wir – Jörg Oyen und ich – schon einmal gründlich darüber nachgedacht, wie man des Problems Herr werden kann, Wunsch und Wirklichkeit des Database Publishing auf einen Nenner zu bringen. Auch damals war das Problem nicht neu und es stellt sich auch heute, nach fast 2 Jahren, als fast unverändert dar.
Damals wie heute ist es so, dass zwar jedermann wünscht, "auf Knopfdruck" aus vorhandenen Datenquellen (Datenbanken, Listen, Tabellen usw.) Kataloge, Preislisten, Datenblätter usw. zu schaffen, dieses "auf Knopfdruck" aber weit entfernt von jeglicher Realität und Praxis ist. Dabei spielt es keine Rolle, wie diese Daten aus der der Datenquelle entnommen oder exportiert werden. Die Wahl der Exportwege wie csv, ODBC, XML ist nachrangig: die Wurzel des Übels liegt weiter vorn, in den Datenquellen selbst. 
Mittlere und große Unternehmen, die ihre Warenwirtschaft längst über EDV etabliert haben, hegen den verständlichen Wunsch, diese Daten auch zweit- und dritt- zu verwerten. Die Frage stellt sich nur, ob die vorhandenen Daten auch den Anforderungen an ein brauchbares automatisches Publizieren erfüllen, eben ob man den (für das datengestützte Publizieren) idealen Datensatz aus diesen Systemen herausholen kann.
Nun gibt es auf dem Markt einige Systeme, die mehr oder weniger einen vollautomatischen Aufbau von Katalogen etc. aus Datenbankdaten (Datenquellen) erlauben. Dies geschieht entweder in einer "BlackBox", die voll programmiert werden kann/muss oder über Zwischenprogramme, die am Ende eine weiter editierbare Satzdatei für Programme wie InDesign oder QuarkXpress liefern. Alle diese Systeme erwarten allerdings eine vollständige Beschreibung aller Parameter für die Publikation – dazu gehören alle strukturgebenden Elemente sowie Überschriften, Gliederungen, Texte, Bilder und Bilddaten sowie Angaben dazu was später wie und wo zu stehen hat. Spätestens bei Überprüfung auf Vollständigkeit dieser Informationen wird sich bei den meisten vorhandenen Datenquellen herausstellen, dass diese eben nicht den Anforderungen des idealen Datensatzes genügen.

Was bleibt, ist die Aufgabe die vorhanden Daten um die fehlenden Informationen und Strukturen anzureichern, um dann diese automatischen Systeme mit vollständigen Daten zu füttern. Die Frage ist nur: Wer soll das machen, und wo? Schon in den Datenquellen selbst? Oder in einem Zwischenprozeß? Man braucht nicht viel Phantasie um sich vorzustellen, dass hier ein Faß ohne Boden aufgemacht wird und ein nie endender Daten-Pflege-Aufwand einsetzen muss. Die Bezahlbarkeit sei hier einmal ganz ausser Acht gelassen.

Betrachten wir die Sache aus dem Blickwinkel des Designers, Grafikers oder Layouters, der beispielsweise einen Katalog mit InDesign produzieren soll und dafür von seinem Auftraggeber Daten geliefert bekommt. Diese Daten seien für unser Beispiel alles andere als vollständig und insofern keine idealen Daten.
Machen wir uns also auf die Suche nach einer Teil-Lösung: alles, was die Daten hergeben, soll verwertet werden, notwendige Strukturen (dazu gehören Gruppierung, Sortierung, Filterung, Zusatzinformationen zu vorhandenen Daten) sollen mit möglichst geringem Aufwand geschaffen werden und das ganze soll möglichst integriert sein in das verwendete Layoutprogramm InDesign, um den Lernaufwand für den Gestalter minimal zu halten und um die oben schon erwähnten nicht vorhandenen Informationen dann einfach händisch, nach Bedarf, ergänzen zu können.

Das Werkzeug meiner Wahl hierfür heisst EasyCatalog. Ich bekomme good enough data (< in Anlehnung an  "good-enough-colour"). Daten also, die für Kataloge usw. notwendig sind aber für vollständige Automatisierung nicht hinreichend. Daten, die ich als Gestalter anreichern muss, ergänzen, oder nach Augenmaß oder Augenschein interpretieren. Daten, die individuell beurteilt werden müssen. Dennoch kann und will ich nicht auf die gelieferten Daten und Informationen verzichten: sie nehmen schließlich den größten Teil der Publikation (räumlich und zeitlich, beim Erstellen) ein. Und sie sind aktualisierbar: einmal im Layout untergebracht können sie bei Bedarf individuell oder global - und dann tatsächlich auf Knopfdruck - auf den neuesten Stand gebracht werden. Ein nicht zu unterschätzender Faktor, wenn Termine brennen.
Die vollständige Integration von EasyCatalog in InDesign erlaubt die Anwendung aller programmeigenen Tools, Formate und Funktionen; die Gestaltung geht wie gewohnt, nur die lästigen Copy&Paste Zyklen, das Importieren aus unsäglichen Textverarbeitungs- oder Tabellenkalkulationsdateien oder das Abtippen aus Kundentexten, -faxen oder sonstigen schriftlichen (Korrektur-)Vorlagen werden auf ein Minimum beschränkt.
Bei wiederkehrenden Publikationen lohnt es sich auch schon einmal in die Zukunft zu planen und einige pfiffige Automatismen einzubauen, die beim ersten mal durch die zusätzlichen Überlegungen und Programmierungen zwar mehr Zeit verschlingen als nötig, die sich aber beim zweiten und dritten Anlauf als echte Zeitsparer erweisen und das Projekt in Summe aller Ausgaben wirtschaftlicher machen.
Wobei sich der Kreis hier schließt: good enough data sind eine Chance, mit überschaubarem Aufwand nicht-ideale Daten für erfolgreiches Database Publishing zu nutzen.

Keine Kommentare:

Kommentar posten