Datenbank Spektrum (2014) 14:169–172 DOI 10.1007/s13222-014-0169-7 E D I T O R IAL Editorial Theo Härder · Jens Teubner Online publiziert: 15. Oktober 2014 © Springer-Verlag Berlin Heidelberg 2014 Schwerpunktthema: Data Management on New Hardware Seit Jahren bieten innovative Prozessor-Architekturen, bahn- brechende Neuerungen bei den Speichertechnologien und stürmische Weiterentwicklungen bei den Infrastrukturen neue wissenschaftliche Fragestellungen und Forschungsfel- der für die Datenbankgemeinde. Wegen der dramatischen Steigerungen bei Speicherkapazitäten und Ein-/Ausgabe- Raten – bei gleichzeitiger Reduktion der Kosten – haben diese Entwicklungen im Zeitalter von Big Data auch eine große wirtschaftliche Bedeutung. Andererseits decken enorm verbesserte Möglichkeiten zur Nutzung von Parallelität durch Multi-Core-Prozessoren oder Cluster-Architekturen sowie größere Bandbreiten und höhere Transferraten bei der Datenübertragung ständig neue Engpässe und erhöhtes Blockierungspotential in existieren- den Systemen auf. Deshalb erzwingen diese Entwicklun- gen auch eine ständige Anpassung und Optimierung der verfügbaren Methoden und Techniken bei den Software- Lösungen, insbesondere bei Datenbanksystemen. Während früher solche Anpassungen oft durch bloße E/A-Optimierung zu erreichen waren, erfordert heute die effiziente Ausnut- zung der verschiedenartigen und komplexen Charakteristi- ka der modernen Hardware eine abgestimmte Vorgehens- T. Härder ( ) AG Datenbanken und Informationssysteme, TU Kaiserslautern, 67663 Kaiserslautern, Deutschland E-Mail: haerder@cs.uni-kl.de J. Teubner Fakultät für Informatik, Lehrstuhl Datenbanken und Informationssysteme, TU Dortmund, 44227 Dortmund, Deutschland E-Mail: jens.teubner@cs.tu-dortmund.de weise, die mehrere oder alle Komponenten zugleich betrifft. Außerdem standen früher allein die verschiedenen Aspekte der Leistungsoptimierung bei Datenbanksystemen im Mit- telpunkt, während heutzutage neben hoher Performanz zu- nehmend Energieeffizienz oder gar Energieproportionalität beim DBMS gefordert wird. Weiterhin ist ein wichtiges Ziel bei dieser DBMS-Evolution die automatische und für die Anwendung transparente Anpassung an die hochentwickel- ten Hardware-Komponenten. Wichtige Bereiche für neue Lösungen betreffen bei- spielsweise Hardware-unterstützte Anfrageverarbeitung, Datenverwaltung bei Nutzung von Co-Prozessoren oder GPUs, neuartige Anwendungen von neuen und künftigen Speichertechnologien (Flash, PCM, NVRAM usw.), DBMS- Architekturen für Transactional Memory, Low-Power Computing, Embedded Devices usw. Außerdem ist es erfor- derlich, für solche neuen DBMS-Architekturen geeignete Tools zur Analyse und Optimierung sowie zur Leistungs-/ Energiemessung von Komponenten und Gesamtsystem bereitzustellen. Damit die oben genannten Ziele für das Data Management on New Hardware auch überprüft und verschiedene Ansätze zu ihrer Optimierung verglichen wer- den können, sind letztlich auch geeignete Benchmarks zu entwickeln, die nicht nur Performanz-zentriert sind, sondern insbesondere auch wichtige Aspekte der Energieeffizienz berücksichtigen. Vor einigen Jahren hatte ein Heft des Datenbank- Spektrums schon einmal dieses Schwerpunktthema gewählt. Damals wurden ausschließlich Beiträge zu Aspekten der Lei- stungssteigerung des Datenbanksystems bzw. seiner Anwen- dungen eingereicht, wobei Nutzung von Flash-Speichern (SSDs) und Optimierungsmöglichkeiten bei der haupt- speicherbasierten Datenbankverarbeitung im Vordergrund standen. In den vier Beiträgen dieses Heftes hat sich der 170 T. Härder, J. Teubner Schwerpunkt deutlich verschoben. Zwei Beiträge konzen- trieren sich unter Nutzung neuer Hardware-Architekturen auch auf Fragen der Energieeffizienz. In weiteren Beiträgen werden vor allem DB-bezogene Optimierungsmöglichkeiten bei Einsatz von GPUs, FPGA Cores, Many-Core NUMA- organized DB Servers usw. untersucht. Im ersten Beitrag mit dem Titel HyPer beyond Softwa- re: Exploiting Modern Hardware for Main-Memory Da- tabase Systems überprüfen Florian Funke, Alfons Kem- per, Tobias Mühlbauer, Thomas Neumann und Viktor Leis (TU München) die Nutzung neuartiger und viel- fältiger Hardware-Möglichkeiten zur Optimierung von Hauptspeicher-Datenbanksystemen im Kontext des HyPer- Projektes. Insbesondere wird die Virtuelle Speicherverwal- tung eingesetzt, um auf den DB-Daten OLAP-Anfragen von parallelen OLTP-Transaktionen zu separieren. Weiterhin un- tersuchen die Autoren Konzepte und Verfahren zur Trennung der DB-Daten in „heiße und kalte“ Partitionen, zur adapti- ven Parallelisierung und Partitionierung, um eine erhöhte Datenlokalität bei Prozessorkernen zu erreichen, sowie zur Verbesserung der Synchronisation bei OLTP-Transaktionen. Schließlich berichten sie, wie heterogene Prozessoren von verbrauchsarmen Rechnern zur leistungsstarken und ener- gieeffizienten Anfrageverarbeitung eingesetzt werden kön- nen. Im folgenden Beitrag fassen Daniel Schall und Theo Härder (TU Kaiserslautern) die Arbeiten zu ihrem DFG- Projekt Energieeffiziente Verarbeitung in Datenbanksyste- men zusammen. Unter den Titel WattDB—A Journey to- wards Energy Efficiency beschreiben sie die Entwicklung von WattDB, einen verteilten DBMS, das auf einen dyna- mischen Cluster von leistungsschwachen Rechnern abläuft. Das Projekt untersucht, wie und ob die Leistung einen zen- tralisierten DB-Servers durch ein Rechner-Cluster bereitge- stellt werden kann, wobei Energieproportionalität bei der DB-Verarbeitung approximiert werden soll. WattDB nähert sich diesem Ziel durch automatisches Zu- und Abschalten von Rechnern in Abhängigkeit von der DB-Arbeitslast an. Ein wesentliches Problem ist die Erreichbarkeit aller DB- Daten von jedem aktiven Rechnerknoten, was flexible, dyna- mische Datenpartitionierung und Datenallokation impliziert. Mit einem Experiment auf großem Server und dynamischem Zehn-Knoten-Cluster – mit vergleichbaren Ressourcen hin- sichtlich CPU-Leistung, Hauptspeicher- und Cache-Größe und Externspeicher-Ausstattung, wobei eine identische Ver- sion von WattDB mit derselben Arbeitslast eingesetzt wurde – konnten die genauen Abweichungen bei Transaktionslei- stung und Energieverbrauch gemessen werden. Während das Cluster durchgehend bessere Werte für Energieeffizienz er- reichte, konnte es nur bei mittleren oder geringen OLAP- Lasten hinsichtlich Transaktionsleistung mit dem großen Server mithalten. Der dritte Beitrag The Design and Implementation of Co- GaDB: A Column-oriented GPU-accelerated DBMS von Se- bastian Breß (TU Dortmund) liefert einen Einblick in die Pro- bleme und Techniken beim Entwurf und bei der Implemen- tierung eines Hauptspeicher-Datenbanksystems, das zur Lei- stungssteigerung eine „eingebaute“ GPU als Co-Prozessor einsetzt, um OLAP-Arbeitslasten in optimierter Weise verar- beiten zu können. CoGaDB setzt das Optimierer-Framework HyPE zur Realisierung eines Hardware-unabhängigen An- frageoptimierers ein, der in der Lage ist, Kostenmodelle für DB-Operatoren zu lernen und Arbeitslasten effizient auf ver- fügbare Prozessoren zu verteilen. CoGaDB implementiert weiterhin effiziente Algorithmen – insbesondere auch den Star Join – für den kombinierten Einsatz auf CPU und GPU. Der Beitrag macht deutlich, wie diese neuen Techniken in einem einzigen System zusammenspielen. Schließlich bele- gen empirische Experimente, dass sich CoGaDB zur Laufzeit schnell durch zunehmende Genauigkeit seiner Kostenmodel- le an die konkret verfügbare Hardware anpasst. Der vierte Beitrag Heterogeneity-aware Operator Place- ment in Column-Store DBMS kommt von der TU Dresden mit den Autoren Thomas Karnagel, Dirk Habich, Benjamin Schlegel und Wolfgang Lehner. Unter der Annahme einer Multi-Core-CPU als homogene Ablaufplattform bestimmen existierende Anfrageoptimierer für eine SQL-Anfrage die ef- fizienteste Auswertungsreihenfolge der erforderlichen physi- schen Operatoren. Jedoch nimmt heutzutage die Heterogeni- tät bei der Hardware zu, so dass eine Multi-Core-CPU mehr und mehr durch verschiedene Recheneinheiten, wie z. B. GPU oder FPGA-Kernen, ergänzt wird. Wegen dieser He- terogenität wird die Optimierung der Zuordnung physischer Operatoren immer wichtiger. In ihrem Beitrag schlagen die Autoren eine entsprechende Strategie, HOP (Heterogeneity- aware physical Operator Placement) genannt, für haupt- speicherbasierte, spaltenorientierte Datenbanksysteme vor. Um Zuordnungsentscheidungen zu Laufzeit in optimaler Weise zu ermöglichen, wertet das Kostenmodell Merkmale der beteiligten Recheneinheiten, Ausführungseigenschaften der Operatoren sowie Ablaufdaten für jede Recheneinheit aus. Die experimentelle Auswertung des HOP-Strategie mit TPC-H-Anfragen zeigte beträchtliche Antwortzeitgewinne, die sich allein durch die optimierte Zuordnung nach dem HOP-Modell ergeben. Die vier Beiträge zum Schwerpunktthema dieses Heftes werden durch einen Fachbeitrag Eine Erweiterung des Re- lationalen Modells zur Repräsentation räumlichen Wissens ergänzt. Norbert Paul und Patrick E. Bradley (KIT Karls- ruhe) beschreiben darin, wie sich die enge Verwandtschaft von Topologie und Relationalem Datenmodell nutzen lässt, um topologische Konzepte in das Relationale Datenmodell einzuführen. Sie zeigen, dass der relationalen Abgeschlos- senheit der Relationalen Algebra eine Art „räumlicher Abge- schlossenheit“ in der Topologie entspricht. Mit einer proto- Editorial 171 typischen Implementierung dieser topologisch-Relationalen Algebra illustrieren sie, wie Relationen zu topologischen Räumen werden können und wie eine entsprechend erwei- terte Relationale Algebra auf diesen Räumen operiert. An ei- nem Beispiel aus der räumlichen Wissensverarbeitung, dem Region-Connection-Calculus (RCC-8), zeigen die Autoren schließlich den Nutzen dieses generischen Ansatzes. Unter der Rubrik „Datenbankgruppen vorgestellt“ finden Sie einen Beitrag von H.-Jürgen Appelrath und Marco Gra- wunder über Die Abteilung Informationssysteme der Univer- sität Oldenburg. Dieser Beitrag skizziert nach einem Blick auf die geschichtliche Entwicklung des Abteilung in Univer- sität und An-Institut OFFIS größere Projekte auf den Gebiet des intelligenten Datenmanagements mit Anwendungen in der Energiewirtschaft und im Gesundheitswesen sowie ein Framework zur Erstellung von Datenstrommanagementsy- stemen. Weiterhin geben die Autoren einen Überblick über eine Vielzahl weiterer aktueller Forschungsthemen ihrer Ab- teilung. In diesem Heft bietet die Rubrik „Dissertationen“ sechs Kurzfassungen von Dissertationen aus der deutschen DBIS- Community. Die Rubrik „Community“ enthält schließlich unter News weitere aktuellen Informationen aus der DBIS-Gemeinde. Künftige Schwerpunktthemen 1 Informationsmanagement für Digital Humanities In den Geisteswissenschaften fallen in immer größerer Men- ge digitale Forschungsdaten an. Dabei ergeben sich durch die spezifischen Rahmenbedingungen zahlreiche Herausfor- derungen für Datenbanken und IR-Systeme: Die Daten und Dokumente sind heterogen in Sprache, Struktur und Quali- tät. Es gibt zwar eine Vielzahl von Standards und Methoden, eine übergreifende Sicht existiert aber kaum. Relevante Kol- lektionen mit elektronischen Texten, Metadaten, Bildern und anderen multimedialen Ressourcen liegen in verschiedenen Disziplinen und Institutionen vor und bilden eine hochgradig verteilte und heterogene Informationslandschaft, deren Ver- arbeitung oft im Rahmen spezifischer, geisteswissenschaft- licher Forschungsfragen erfolgt. Von besonderer Bedeutung sind die Erschließung, Veröffentlichung und Verwaltung di- gitaler Ressourcen im Rahmen spezifischer Anwendungen z. B. in der Archäologie, den Geschichts-, Sprach- oder Reli- gionswissenschaften, aber insbesondere auch im Kontext in- terdisziplinärer Forschung. Im Themenheft sollen einführen- de und überblicksartige Artikel sowie aktuelle Forschungs- ergebnisse zu ausgewählten Themen ein breites Bild zum aktuellen Stand des Informationsmanagements für Digital Humanities geben. Mögliche Themen aus diesem Bereich könnten z. B. sein: • Integrierte Analyse, Verarbeitung und Visualisierung ver- teilter bzw. heterogener Kollektionen • Nutzung, Entwicklung und Auswertung von Vokabularen, Thesauri und Ontologien • Langzeitarchivierung und Datenprovenienz • Katalogisierung, Annotation und Dokumentation von Res- sourcen (Data Curation) • Erkennung, Analyse und Visualisierung kollektionsinter- ner oder -übergreifender Zusammenhänge z. B. durch Analyse von Ort und Zeit, Themen, Named Entities • Aspekte der Usability im Umgang mit verteilten und he- terogenen Ressourcen • Anwendungen zum Datenmanagement, zur Suche und zur Analyse in speziellen Anwendungsfeldern aus den Gei- steswissenschaften • Big Data-Technologien für die Digital Humanities • Forschungsinfrastrukturen für die Digital Humanities Gastherausgeber: Andreas Henrich, Otto-Friedrich-Universität Bamberg andreas.henrich@uni-bamberg.de Gerhard Heyer, Universität Leipzig heyer@informatik.uni-leipzig.de Christoph Schlieder, Otto-Friedrich-Universität Bamberg christoph.schlieder@uni-bamberg.de 2 Data Management for Mobility Mobility is a major factor in our society and daily life. Thus, approaches for data management need to address the resul- ting dynamics, geospatial and temporal relationships, and distribution of resources. In Web design, the methodology of „mobile first“ – developing new Web applications for mobile usage first and adapt it later for the desktop case – is widely embraced by industry. However, it often only considers the user interface and not the data management. This special is- sue addresses novel approaches and solutions for mobile data management. We invite submissions on original research as well as overview articles covering topics from the following non-exclusive list: • Data management for mobile applications • Context awareness in mobile applications • Analytic techniques in mobile applications • Management of moving objects • Data-intensive mobile computing and cloud computing • Data stream management • Complex event processing • Case studies and applications • Foundations of data-intensive mobile computing 172 T. Härder, J. Teubner Expected size of the paper: 8 – 10 pages (double-column) Important dates: • Notice of intent for a contribution: December 15th, 2014 • Deadline for submissions: February 1st, 2015 • Issue delivery: DASP-2-2015 (July 2015) Guest editors: Bernhard Mitschang, University of Stuttgart bernhard.mitschang@ipvs.uni-stuttgart.de Daniela Nicklas, University of Bamberg daniela.nicklas@uni-bamberg.de 3 Best Workshop Papers of BTW 2015 This special issue of the „Datenbank-Spektrum“ is dedica- ted to the Best Papers of the Workshops running at the BTW 2015 at the University of Hamburg. The selected Workshop contributions should be extended to match the format of re- gular DASP papers. Paper format: 8–10 pages, double column Selection of the Best Papers by the Workshop chairs and the guest editor: April 15th, 2015 Guest editor: Theo Härder, University of Kaiserslautern, haerder@cs.uni-kl.de Deadline for submissions: June 1st, 2015 4 Big Data & IR The term Big Data refers to data and respective processing strategies, which, due to their sheer size, require a data center for the processing, and which become available through the ubiquitous computer and sensor technology in many facets of everyday life. Interesting scientific questions in this regard are the organization and management of Big Data, but also the identification of problems that now can be studied and better understood through the collection and analysis of Big Data. In the context of information retrieval as the purposeful search for relevant content, there are two main challenges: 1) retrieval in Big Data and 2) improved retrieval because of Big Data. Retrieval in Big Data focuses on the organization, the ma- nagement, and the quick access to Big Data, but also addres- ses the creative process of identifying interesting research questions that can only be understood and answered in Big Data. Besides the development of powerful frameworks for the maintenance and analysis of text, multimedia, sensor, and simulation data, an important research direction is the que- stion of what kind of insights Big Data may give us today and in the future. The second challenge in the context of Big Data & IR is the improvement of retrieval approaches through Big Data. Examples include the classic question of improved Web or eCommerce search via machine learning on user behavior data, the usage of user context for retrieval, or the exploitation of semantic data like Linked Open Data or knowledge graphs. We are looking for contributions from researchers and practitioners in the above described context. The contributions may be submitted in German or in Eng- lish and should observe a length of 8–10 pages in the Datenbank-Spektrum format (cf. the author guidelines at www.datenbank-spektrum.de). Important dates: • Notice of intent for a contribution: August 15th, 2015 • Deadline for submissions: October 1st, 2015 • Issue delivery: DASP-1-2016 (March 2016) Guest editors: Matthias Hagen, Universität Weimar matthias.hagen@uni-weimar.de Benno Stein, Universität Weimar benno.stein@uni-weimar.de Editorial 1 Informationsmanagement für Digital Humanities 2 Data Management for Mobility 3 Best Workshop Papers of BTW 2015 4 Big Data & IR << /ASCII85EncodePages false /AllowTransparency false /AutoPositionEPSFiles true /AutoRotatePages /None /Binding /Left /CalGrayProfile (Gray Gamma 2.2) /CalRGBProfile (sRGB IEC61966-2.1) /CalCMYKProfile (Coated FOGRA27 \050ISO 12647-2:2004\051) /sRGBProfile (sRGB IEC61966-2.1) /CannotEmbedFontPolicy /Warning /CompatibilityLevel 1.4 /CompressObjects /Off /CompressPages true /ConvertImagesToIndexed true /PassThroughJPEGImages true /CreateJobTicket false /DefaultRenderingIntent /Perceptual /DetectBlends true /DetectCurves 0.1000 /ColorConversionStrategy /sRGB /DoThumbnails true /EmbedAllFonts true /EmbedOpenType false /ParseICCProfilesInComments true /EmbedJobOptions true /DSCReportingLevel 0 /EmitDSCWarnings false /EndPage -1 /ImageMemory 1048576 /LockDistillerParams true /MaxSubsetPct 100 /Optimize true /OPM 1 /ParseDSCComments true /ParseDSCCommentsForDocInfo true /PreserveCopyPage true /PreserveDICMYKValues true /PreserveEPSInfo true /PreserveFlatness false /PreserveHalftoneInfo false /PreserveOPIComments false /PreserveOverprintSettings true /StartPage 1 /SubsetFonts false /TransferFunctionInfo /Apply /UCRandBGInfo /Preserve /UsePrologue false /ColorSettingsFile () /AlwaysEmbed [ true ] /NeverEmbed [ true ] /AntiAliasColorImages false /CropColorImages false /ColorImageMinResolution 149 /ColorImageMinResolutionPolicy /OK /DownsampleColorImages true /ColorImageDownsampleType /Bicubic /ColorImageResolution 150 /ColorImageDepth -1 /ColorImageMinDownsampleDepth 1 /ColorImageDownsampleThreshold 1.50000 /EncodeColorImages true /ColorImageFilter /DCTEncode /AutoFilterColorImages true /ColorImageAutoFilterStrategy /JPEG /ColorACSImageDict << /QFactor 0.40 /HSamples [1 1 1 1] /VSamples [1 1 1 1] >> /ColorImageDict << /QFactor 0.15 /HSamples [1 1 1 1] /VSamples [1 1 1 1] >> /JPEG2000ColorACSImageDict << /TileWidth 256 /TileHeight 256 /Quality 30 >> /JPEG2000ColorImageDict << /TileWidth 256 /TileHeight 256 /Quality 30 >> /AntiAliasGrayImages false /CropGrayImages false /GrayImageMinResolution 149 /GrayImageMinResolutionPolicy /OK /DownsampleGrayImages true /GrayImageDownsampleType /Bicubic /GrayImageResolution 150 /GrayImageDepth -1 /GrayImageMinDownsampleDepth 2 /GrayImageDownsampleThreshold 1.50000 /EncodeGrayImages true /GrayImageFilter /DCTEncode /AutoFilterGrayImages true /GrayImageAutoFilterStrategy /JPEG /GrayACSImageDict << /QFactor 0.40 /HSamples [1 1 1 1] /VSamples [1 1 1 1] >> /GrayImageDict << /QFactor 0.15 /HSamples [1 1 1 1] /VSamples [1 1 1 1] >> /JPEG2000GrayACSImageDict << /TileWidth 256 /TileHeight 256 /Quality 30 >> /JPEG2000GrayImageDict << /TileWidth 256 /TileHeight 256 /Quality 30 >> /AntiAliasMonoImages false /CropMonoImages false /MonoImageMinResolution 599 /MonoImageMinResolutionPolicy /OK /DownsampleMonoImages true /MonoImageDownsampleType /Bicubic /MonoImageResolution 600 /MonoImageDepth -1 /MonoImageDownsampleThreshold 1.50000 /EncodeMonoImages true /MonoImageFilter /CCITTFaxEncode /MonoImageDict << /K -1 >> /AllowPSXObjects false /CheckCompliance [ /None ] /PDFX1aCheck false /PDFX3Check false /PDFXCompliantPDFOnly false /PDFXNoTrimBoxError true /PDFXTrimBoxToMediaBoxOffset [ 0.00000 0.00000 0.00000 0.00000 ] /PDFXSetBleedBoxToMediaBox true /PDFXBleedBoxToTrimBoxOffset [ 0.00000 0.00000 0.00000 0.00000 ] /PDFXOutputIntentProfile (Coated FOGRA27 \050ISO 12647-2:2004\051) /PDFXOutputConditionIdentifier (FOGRA27) /PDFXOutputCondition () /PDFXRegistryName (http://www.color.org) /PDFXTrapped /False /CreateJDFFile false /Description << /ENU ([Based on '[SpringerOnline_1003_Acro8]'] Use these settings to create Adobe PDF documents best suited for high-quality prepress printing. Created PDF documents can be opened with Acrobat and Adobe Reader 5.0 and later.) /ENN () >> /Namespace [ (Adobe) (Common) (1.0) ] /OtherNamespaces [ << /AsReaderSpreads false /CropImagesToFrames true /ErrorControl /WarnAndContinue /FlattenerIgnoreSpreadOverrides false /IncludeGuidesGrids false /IncludeNonPrinting false /IncludeSlug false /Namespace [ (Adobe) (InDesign) (4.0) ] /OmitPlacedBitmaps false /OmitPlacedEPS false /OmitPlacedPDF false /SimulateOverprint /Legacy >> << /AddBleedMarks false /AddColorBars false /AddCropMarks false /AddPageInfo false /AddRegMarks false /BleedOffset [ 0 0 0 0 ] /ConvertColors /ConvertToRGB /DestinationProfileName (Coated FOGRA27 \(ISO 12647-2:2004\)) /DestinationProfileSelector /WorkingCMYK /Downsample16BitImages true /FlattenerPreset << /PresetSelector /MediumResolution >> /FormElements false /GenerateStructure false /IncludeBookmarks true /IncludeHyperlinks true /IncludeInteractive false /IncludeLayers false /IncludeProfiles true /MarksOffset 6 /MarksWeight 0.250000 /MultimediaHandling /UseObjectSettings /Namespace [ (Adobe) (CreativeSuite) (2.0) ] /PDFXOutputIntentProfileSelector /UseName /PageMarksFile /RomanDefault /PreserveEditing true /UntaggedCMYKHandling /UseDocumentProfile /UntaggedRGBHandling /UseDocumentProfile /UseDocumentBleed false >> << /AllowImageBreaks true /AllowTableBreaks true /ExpandPage false /HonorBaseURL true /HonorRolloverEffect false /IgnoreHTMLPageBreaks false /IncludeHeaderFooter false /MarginOffset [ 0 0 0 0 ] /MetadataAuthor () /MetadataKeywords () /MetadataSubject () /MetadataTitle () /MetricPageSize [ 0 0 ] /MetricUnit /inch /MobileCompatible 0 /Namespace [ (Adobe) (GoLive) (8.0) ] /OpenZoomToHTMLFontSize false /PageOrientation /Portrait /RemoveBackground false /ShrinkContent true /TreatColorsAs /MainMonitorColors /UseEmbeddedProfiles false /UseHTMLTitleAsMetadata true >> ] >> setdistillerparams << /HWResolution [2400 2400] /PageSize [595.276 841.890] >> setpagedevice