Tex-Tagung Dante 2012

Neuigkeiten aus der Tex-Welt

Auf der DANTE 2012, die in Zusammenarbeit mit der HTWK Leipzig und dem Leipziger Verlagsdienstleister le-tex publishing services organisiert wurde, kamen vom 7. – 9. März rund 60 TeX-AnwenderInnen überwiegend aus dem deutschsprachigen Raum zusammen, um sich über neue Entwicklungen aus der Welt des freien Satzsystems TeX auszutauschen. TeX (sprich: »Tech«) ist ein von Donald E. Knuth entwickeltes und 1978 veröffentlichtes Textsatzsystem. Es wurde mit dem Ziel entwickelt, es jedem zu erlauben mit verhältnismäßig geringem Aufwand typografisch hochwertige Drucksachen zu setzen und auf jedem System exakt dieselben Resultate zu erzielen. Letzteres scheint auch heute noch keine Selbstverständlichkeit zu sein, wenn man an den Austausch offener InDesign- oder Quark-Daten denkt. TeX-Dokumente können mit einem einfachen Texteditor erstellt werden, wobei der zu setzende Text mit TeX-Anweisungen ausgezeichnet wird und anschließend von einer TeX-Engine in ein druckfähiges Format konvertiert wird. TeX wird kontinuierlich um Pakete mit neuen Funktionen erweitert und vor allem aufgrund seiner Stärken in typografischer Feinabstimmung und Formelsatz bei Wissenschaftsverlagen häufig eingesetzt.

Die deutsche TeX-Community wird durch die etwa 2000 Mitglieder starke Deutsche Anwender-vereinigung TeX e.V. (DANTE) repräsentiert. Diese bietet Tutorien an, gibt im Rahmen der DANTE-Edition TeX-Lehrbücher heraus und richtet Tagungen aus. Ihre diesjährige Frühjahrs-tagung fand nun erfreulicherweise erstmals in Leipzig, in den Räumen der HTWK statt.

Barrierefreies oder barrierearmes PDF?

Den Auftakt bildeten Günter Partosch und Axel Strübing mit einem gemeinsamen Vortrag über die Anforderungen an barrierefreie PDF-Dokumente nach dem ISO-Standard PDF/A-1a, sogenannte tagged PDFs. Dabei gebe es in der TeX-Welt zwar keine überall verfügbare Lösung, aber dennoch verschiedene, teilweise experimentelle Ansätze. Axel Strübing stellte einen Lösungsversuch vor, der darauf beruhte, dass zunächst aus LaTeX PostScript generiert wird. Dieses PostScript enthält Anweisungen, die Tagging, Metadaten und Unicode-Mappings transportieren. Dabei modifizierte er den TeX-Quellcode, damit Wortgrenzen korrekt erkannt werden können.

Während des Vortrags kristallisierte sich schnell heraus, dass die Gewährleistung von »Barrierefreiheit« nicht mit reiner Standardkonformität erreicht ist. Denn der Standard PDF/A-1a stellt nur sicher, dass die technischen Voraussetzungen für das Vorlesen durch einen Screenreader erfüllt sind: Ein PDF kann zwar die Anforderungen des Standards erfüllen, der Text jedoch sinnverfälschend ausgezeichnet sein. So können beim Vorlesen etwa Haupttext und Fußnotentext durcheinander geraten. Damit ein PDF nicht nur barrierearm, sondern barrierefrei ist, müssen vielmehr die unterschiedlichen semantischen Ebenen wie Absätze, Überschriften oder Tabellen korrekt ausgezeichnet, die Lesereihenfolge richtig angegeben und alle Schriftzeichen durch Unicode repräsentiert sein. Abbildungen müssen aussage-kräftige Alternativtexte enthalten und die Sprache richtig angegeben sein. Somit gilt – und nicht nur für TeX – dass sich barrierefreie Dokumente nicht mit einem Fingerschnippen erzeugen lassen, sondern nur als Fleißarbeit.

Von TeX aufs Tablet

Neben barrierefreiem PDF widmeten sich zwei Vorträge der Erstellung von E-Books. So stellte Thomas Ferber vor, wie man mit der LaTeX-Erweiterung Hyperref PDF-Features wie Lese-zeichen, interne Links und miniaturisierte Seitenvorschauen für PDF-basierte E-Books erzeugt. Dominik Wagenführ erläuterte, wie sich ausgehend von LaTeX-Dokumenten E-Books im EPUB-Format erstellen lassen. Seine Methode sieht vor, das LaTeX-Dokument zunächst von absoluten Positionierungs- und Größenangaben, sowie seitenbasierten Inhalten wie Kolum-nentiteln zu bereinigen. Danach folgt eine Konvertierung nach HTML mit einem Paket wie TeX4ht oder LaTeXML. Für die Konvertierung von HTML nach EPUB empfahl Wagenführ frei verfügbare Tools wie Sigil und Calibre.

Allerdings sind diese Tools für produktive Einsatz-szenarien nicht geeignet: Die Programme liegen nur als Beta-Versionen vor und Konvertier-ungen führen nicht selten zu fehlerhaften Resultaten. So unterstrich er auch die Notwendigkeit einer manuellen Nachbearbeitung und Validierung der Daten. Trotzdem muss festgehalten werden, dass bisher kein direkter Weg von TeX nach EPUB existiert. Es bleibt jedoch fraglich, ob die Entwicklung eines solchen Konverters beim aktuellen Stand der E-Book-Reader sinnvoll erscheint? Schließlich bleibt derzeit die Darstellung von komplexeren Formeln und Tabellen bei vielen dieser Geräte immer noch ein ungelöstes Problem.

Neue TeX-Akronyme

Neben Vorträgen zum Handling von Referenzen (Martin Sievers), Bibliografien (Jean-Michel Hufflen) und Schriften (Herbert Voß, Philipp Poll) beschäftigte sich der Vortrag von Martin Schröder mit der Frage nach zukünftigen Entwicklungen in der TeX-Welt. In der Software-geschichte gilt es ja eher als ungewöhnlich, dass ein Projekt seit den 70er Jahren des vergangenen Jahrhunderts nahezu unverändert auf demselben technologischen Kern basiert, auch wenn dieser kontinuierlich um viele Erweiterungen ergänzt wurde. Trotzdem haben sich Altlasten gebildet, wovon die fehlende Unterstützung von OpenType-Schriften und UTF-8 beredtes Zeugnis ablegen.

Diese Nachteile zu beheben, schicken sich nun neuere TeX-Engines wie XeTeX und LuaTeX an. So verstehen sich XeTeX wie LuaTeX auf UTF-8-kodierten Input und die Verwendung von OpenType-Schriften. XeTeX kann dabei auf dem Betriebssystem installierte Schriften out of the box verwenden, wobei die mit XeTeX erstellten Daten natürlich an Portabilität einbüßen. Die Idee hinter LuaTeX ist TeX um die Skriptsprache Lua zu erweitern und sich durch Scripting viele neue Möglichkeiten der dynamischen Steuerung des Satzprozesses zu erschließen.

Einen Einblick lieferte Patrick Gundlachs Vortrag »Database Publishing mit LuaTeX«. Sein auf LuaTeX basierter Ansatz erlaubt die dynamische Interpretierung des Layouts während des Render-Prozesses, basierend auf vorher festgelegten Regeln. Dergestalt ist es z.B. im Gegen-satz zu XSL-FO möglich, die Elemente auf einer Seite dynamisch anzuordnen, so dass der Platz der Seite optimal ausgenutzt wird oder in Abhängigkeit von der verwendeten Sprache, der Kolumne mehr oder weniger Platz zuzuteilen. Christof Meigen demonstrierte unter dem Motto »Das Dokument ist Programm« Lua-Anwendungen in TeX-Dokumenten. Er illustrierte wie man mit Lua während der Verarbeitung von Dokumenten grafische Eingabemasken aufrufen kann, anhand deren Eingaben das resultierende PDF generiert wird. Zudem lassen sich Webdienste und Datenbanken anbinden um damit dynamisch abgerufene Daten in das PDF schreiben. Dabei konnte er bereits auf einige Projekte aus der Praxis ver-weisen: Unter anderem entwickelte er für die »Filmgalerie Alpha 60« ein System zum daten-bankgestützten Label- und Katalogdruck.

Resümee

Die Tagung brachte viele aktuelle Themen und Entwicklungen aufs Tapet und wurde belebt durch den regen Austausch der TeilnehmerInnen, sei es bei der Kaffeepause zwischen den Vorträgen oder auf den Abendtreffs. Die Diskussion um barrierefreies PDF schärfte den Sinn dafür, dass man nicht nur blind über die technische Umsetzung von Standards reden darf, sondern es hervorzuheben gilt, wie notwendig ein semantisch korrektes Tagging für Benutzer von Screenreadern ist. Nicht zuletzt wurde aufgezeigt, dass noch Entwicklungsbedarf besteht, bis eine vernünftig einsetzbare Lösung für das Erstellen von barrierefreiem Content mit TeX verfügbar ist. Sehr reif erscheinen hingegen die Demonstrationen von LuaTeX und die Möglichkeiten, die sich mit der Skriptsprache Lua ergeben. Nicht nur in dieser Hinsicht darf man auf weitere Neuigkeiten aus der TeX-Welt gespannt sein.