Abstracts


Anna Boroffka (Universität Hamburg)

Zwischen Buchdruck und Bilderhandschrift - Das Manuskriptlayout des Codex Florentinus als transkultureller Aushandlungsraum

Der inzwischen in der Biblioteca Laurenziana in Florenz aufbewahrte Codex Florentinus ist ein dreibändiges Manuskript, welches um 1577 unter der Leitung des spanischen Franziskanermissionars Bernardino de Sahagún in Neuspanien (dem heutigen Mexiko) entstand. Die Handschrift wurde nach dem Vorbild europäischer Enzyklopädien angefertigt. In zwölf Büchern schildert sie die Fauna und Flora Neuspaniens sowie die Religion, Astronomie und Astrologie, soziale Ordnung, Moralvorstellungen, Geschichte und Regenten der auch als Azteken bezeichneten Mexica. Unter den erhaltenen kolonialzeitlichen Manuskripten aus dem spanischen Vizekönigreich ist es das einzige, das konsequent zweisprachig auf Náhuatl – der Sprache der Mexica und Lingua franca Mesoamerikas – und Spanisch verfasst wurde. Ebenso singulär sind die nach Vorlage europäischer Druckgrafik gestalteten und mit zahlreichen mesoamerikanischen Glyphen durchsetzten Miniaturen, welche die spanischen Passagen über weite Strecken als Übersetzungsmedium des Náhuatl-Textes ablösen. Anhand dieser Text-Bild-Beziehungen geht das vorgestellte, am SFB 950 – Manuskriptkulturen in Asien, Afrika und Europa (Centre for the Study of Manuscript Cultures) der Universität Hamburg angesiedelte kunsthistorische Forschungsprojekt davon aus, dass sich die visuelle Organisation des Manuskriptes als transkultureller Übersetzungs- und Aushandlungsraum der Frühen Neuzeit beschreiben lässt.

Hannah Busch (Universität Trier), Oliver Schmid (Technische Universität Darmstadt), Swati Chandna (Karlsruher Institut für Technologie)

eCodicology â€“ Algorithms for the Automatic Tagging of Medieval Manuscripts

Digital methods, tools and algorithms are gaining in importance for the analysis of digitized manuscripts collections in the arts and humanities. One example is the BMBF- funded research project "eCodicology" which aims to design, evaluate and optimize algorithms for the automatic identification of macro- and micro- structural layout features of medieval manuscripts. The main goal of this research project is to provide better insights into high-dimensional datasets of medieval manuscripts. The heterogeneous nature and size of the humanities data and the need to create a database of automatically extracted reproducible features for better statistical and visual analysis are the main challenges in designing a workflow for arts and humanities.
We present a concept called as CodiHub to facilitate exploration of co-relations in the abstract feature space of large sets of digitized medieval manuscripts. As a starting point, the workflow uses medieval manuscripts digitized within the scope of the project "Virtual Scriptorium St. Matthias". Firstly, these digitized manuscripts are ingested into a data repository. Secondly, SWATI (Software Workflow for the Automatic Tagging of the Medieval Manuscript Images) is designed for the identification of macro- and micro-structural layout elements like page size, writing space, number of lines etc. And lastly, visual, statistical analysis scientific evaluation of the manuscripts groups are performed. The workflow is designed generically to process large amounts of data automatically with any desired algorithm for feature extraction.
CodiHub shows the potential of automatic image analysis by enabling the processing of a single page in less than a minute. Furthermore, the accuracy tests of the workflow on a small set of manuscripts with respect to features like page size and text areas show that automatic and manual analysis are comparable. The usage of a computer cluster will allow the highly performant processing of large amounts of data. The software framework itself will be integrated as a service into the DARIAH infrastructure to make it adaptable for wider range of communities.

Matthew James Driscoll (Arnamagnæan Institute, Copenhagen)

The legendary legacy: Crunching 600 years of saga manuscripts

The research project "Stories for all time", which ran from 2011 to 2014, had as its aim to survey the entire transmission history of the Fornaldarsögur Norðurlanda, a group of Icelandic sagas often referred to in English as "mythical-heroic" or "legendary" sagas (see the project website: http://fasnl.ku.dk/). Although the sagas themselves are thought to date from the 13th or 14th century, they are preserved mostly in post-medieval paper manuscripts. We set out therefore to locate and catalogue all the manuscripts containing texts of the 35 sagas which make up the corpus. In the end we found over 1000 manuscripts – containing nearly 2000 texts – the earliest from the beginning of the 14th century, the latest from the beginning of the 20th. About a quarter of these were not previously known to scholarship. We catalogued all of these manuscripts using a very restrictive subset of the TEI manuscript description module, which allows us to compare codicological and other features of the manuscripts in a way hitherto impossible. In my paper, I would like to present the schema and some of the results of our analysis of the encoded data.

Oliver Duntze (Staatsbibliothek zu Berlin – Stiftung Preußischer Kulturbesitz)

Von Typen, Bäumen und Netzen – Ansätze zu einer quantifizierenden Typographiegeschichte

Der "Gesamtkatalog der Wiegendrucke" (GW) und das "Typenrepertorium der Wiegendrucke" (TW) bieten eine umfangreiche Basis für eine computergestützte statistische Auswertungen typographischer Daten: Da die Bestimmung des in einem Druck verwendeten Typenmaterials eine wichtige Rolle bei der Zuweisung unfirmierter Inkunabeln spielt, verzeichnet der GW derzeit zu gut 16.000 Inkunabelausgaben (von insgesamt ca. 30.000) die in ihnen verwendeten Drucktypen. Die methodische Grundlage der Typenbestimmung bildet dabei Konrad Haeblers 1905–1924 erschienenes "Typenrepertorium der Wiegendrucke", das unter dem Kürzel TW seit 2013 in einer online-Version verfügbar ist. Das TW verzeichnet das typographische Material von über 1.400 Offizinen des 15. Jahrhunderts und enthält Datensätze zu über 6.000 verschiedenen Drucktypen und etwa 7.000 Initialen, Titelholzschnitten und Druckermarken.
Der erste Teil des Vortrags zeigt, wie mit Hilfe von Algorithmen, die für bioinformatische Fragestellungen entwickelt wurden (z.B. Neighbour Joining), Druckprogramme einzelner Offizinen unter typographischen Gesichtspunkten gegliedert werden können. In Analogie zu evolutionsbiologischen Stammbäumen wird dabei ein typographisches ‚Stemma‘ der Drucke rekonstruiert, das die zeitliche Entwicklung einer Offizin und ihres Druckprogramms abbildet.
Der zweite Teil des Vortrags widmet sich der Untersuchung druckerspezifischer Typeninventare mit Hilfe von Methoden, die in der sozialen Netzwerkforschung entwickelt wurden. In Analogie zu Fragestellungen der sozialen Netzwerkforschung kann untersucht werden, welche Typen in einer Druckerei gemeinsam verwendet wurden und wie häufig dies der Fall war. Mit diesem Ansatz ist es möglich, das typographische Material einer Offizin als Netzwerk zu modellieren und zu visualisieren. Das typographische Inventar der Druckerei kann dadurch mit explorativen Methoden aus der Netzwerkforschung gegliedert und untersucht werden.

Michael Embach (Stadtbibliothek/Stadtarchiv Trier)

Von der historischen Originalüberlieferung zur Digitalisierung – Chancen und Risiken

Der Vortrag möchte im Sinne eines Praxisberichts über die langjährigen Erfahrungen der Stadtbibliothek Trier mit Digitalisierungsprojekten ganz unterschiedlicher Art und Wertigkeit informieren. Als ein Haus mit einem vergleichsweise hohen Anteil historischer Originalüberlieferung ist die Trierer Stadtbibliothek permanent vor die Notwendigkeit zur Digitalisierung wertvoller historischer Bestände gestellt. In Frage kommen bzw. bereits digitalisiert sind zusammenhängende monastische Korpora wie die Handschriften der Abtei Trier-St. Matthias, des Weiteren kostbare Einzelhandschriften, deren weltweite Erforschung auf diese Weise erleichtert werden soll, Drucke aus der Inkunabelzeit sowie letztendlich breitere Bestandsgruppen aus dem Raum des ehemaligen Erzbistums und Kurfürstentum Trier. Viele Titel aus dem Bereich dieser letztgenannten "treverensischen" Literatur sind bereits in das dezentral aufgebaute Portal "Dilibri" eingeflossen.
Angesichts der Fülle und Diversität der anstehenden Maßnahmen stellt sich die Frage nach einer übergreifenden Digitalisierungspolitik, nach den konservatorischen Aspekten der jeweiligen Initiativen sowie letztendlich nach den Hostingaspekten und der Langzeitarchivierung der durchgeführten Digitalisierungsprojekte.

Gábor Hosszú (Technische und Wirtschaftswissenschaftliche Universität Budapest)

Phenetic Approach to Script Evolution

Computational palaeography, as a branch of applied computer science deals with the evolution of graphemes and scripts. The research efforts of our group cover a broad range of topics related to computational palaeography, including modelling graphemes in different abstraction levels, reconstruction of lineage of graphemes in various scripts, investigation of methods for testing the appropriateness of the reconstructed descent lines of graphemes, application of machine learning (clustering and numerical taxonomy) methods for exploring similarities among scripts, and developing algorithm for deciphering historical inscriptions.
The paper details the similarity groups of graphemes created by phenetic tools, and the investigations carried out to explore the relationships among more than 60 different scripts using clustering and factor analysing algorithms. Based on the results, the fine-tune branching pattern of scripts can be constructed. As an application of the developed methods, the novel results for the roots of some less known scripts (e.g. Rovash scripts) are obtained.

Andrew Irving (University of Notre Dame)

Towards an Archaeology of Beneventan Gospel Books: A Quantitative Approach

Gospel books, central to the celebration of medieval Christian liturgy, are frequently assumed to be in some way different to other books. By investigating each material aspect of the eight surviving Gospel books from the Abbey of Montecassino dating to the eleventh century, in comparison with codicological data gleaned from three data sets – 1) all other surviving Latin Gospel books produced in the Southern Italian script, 2) all known book products of the contemporary Cassinese scriptorium, and 3) the data supplied by Francesco Bianchi et al.’s quantitative codicological study of eleventh-century Italian manuscripts, we are in a better position to assess to what extent this is the case. The paper will introduce the corpus, describe the method employed in the study, and provide examples of findings paying particular attention to unexpected variability. It will advert to problems arising in the comparison, and explore implications of the "archaeological" method.

Karl Lenger (Universitätsbibliothek Graz)

Steirische Kultur digital im 3. Jahrtausend – ein institutionsunabhängiges Kulturprojekt!

Die österreichische Einrichtung des HRSM-Fonds zielt unter anderem darauf ab, Universitäten als Mittler regionaler Forschungs- und Kulturprojekte zu etablieren. Im Rahmen des Projektes das „Steirische kulturelle Erbe“ sollen u.a. die mittelalterlichen Handschriften des säkularisierten Stiftes Seckau (heute UB Graz), die Objekte des Stadtmuseums Graz, der gesamte Sondersammlungsbereich der Kunst-Universität Graz, die Dissertationsakten, die Promotionsbücher und die dazugehörigen historischen Dissertationen der KFU in einem eigenen Online-Portal präsentiert werden. Das Digitalisierungszentrum der Universitätsbibliotheksbibliothek Graz bildet mit seinen technischen Einrichtungen und seinem einzigartigen Know how einen zentralen Dreh- und Angelpunkt des gesamten Vorhabens. In Graz entwickelte Kameratische und mobil einsetzbare Traveller stehen dafür gleichsam im Dauereinsatz und erleben eine neue Bewährungsprobe. Dieser Vortrag soll Einblicke in den für das Projekt verwendeten Gerätpool des Digitalisierungszentrums Graz und in die Entwicklung des ersten österreichischen Handschriftenportals geben.

Johan Oosterman (Radboud-Universität Nijmegen)

Manuscript Hunt in Digital Times. Methodological Considerations, and some Remarkable Finds

In the 1990's I participated in the making of two repertories: one of medieval Dutch rhymed prayers, the other of Dutch songs before 1600. I made use of printed sources, catalogues, editions, card-indexes in libraries and research institutions etc. Recently, during a sabbatical leave, I resumed the searching of manuscripts and texts, mainly on the field of rhymed prayers. This time I made of course extensively use of all the instruments and techniques available. In my presentation I will present the changed ways of searching, and discuss the new opportunities but also the problems you're faced with. I'll present some of the (spectacular) results and I'll to examine whether the new results provided simply more data or resulted in a re-examination of former conclusions.

Robert Giel (Staatsbibliothek zu Berlin – Stiftung Preußischer Kulturbesitz)

Von Manuscripta Mediaevalia zu einem neuen Handschriftenportal

Manuscripta Mediaevalia (ManuMed) entstand vor mehr als 20 Jahren als Nachweis- und Katalogisierungsinstrument für mittelalterliche und frühneuzeitliche Handschriften in öffentlichen Sammlungen in Deutschland. Während der Aufbau von ManuMed durch die DFG gefördert wurde, liegt die Trägerschaft seit 2000 bei der Staatsbibliothek zu Berlin, der Bayerischen Staatsbibliothek und bei dem Bildarchiv Foto Marburg. Inzwischen werden mehr als 90.000 Handschriften in ManuMed nachgewiesen. Einige Dutzend Bibliotheken katalogisieren ihre Codices über die Erfassungsmaske von ManuMed.
Da die Software von ManuMed den aktuellen Anforderungen, insbesondere hinsichtlich der Bereitstellung von digitalisierten Handschriften, nicht mehr entspricht, haben die Bayerische Staatsbibliothek und die Staatsbibliothek zu Berlin sich für den Aufbau eines neuen Handschriftenportals entschieden. Zusammen mit der UB Leipzig und der HAB Wolfenbüttel soll in den nächsten Jahren ein solches Portal entworfen, entwickelt und bereitgestellt werden. Dieses Portal soll die Inhalte von ManuMed übernehmen, aber für die Erfassung und Präsentation von Handschriftenbeschreibungen, für die Export von Daten sowie für die Bereitstellung von digitalisierten Handschriften neue Module enthalten.

Christoph Reske (Johannes Gutenberg-Universität Mainz)

Mikroskopischer Vergleich von Drucktypen der Inkunabelzeit

Ausgangspunkt meiner Untersuchungen waren die von zwei US-amerikanischen Wissenschaftlern vorgenommenen softwarebasierten Vergleiche an Johannes Gutenberg zugeschriebenen Drucktypen. Sie stellten derart große Abweichungen bei den Drucktypen fest, dass sie das in späterer Zeit sicher zu belegenden Gießinstrument als Herstellungsgerät für die Typen ausschließen. Mein Vortrag präsentiert die Ergebnisse einer computerunterstützten mikroskopischen manuellen Vergleichsuntersuchung an Drucktypen des 15. Jahrhunderts, die mit Quellen zur Typenherstellung und zum Druckprozess kontextuiert werden. Es geht um die Vergleichbarkeit der tatsächlich zu beobachteten Phänomene mit den aus Gießinstrumenten entstandenen Druckwerken. Hierzu wurden zum einen Typen von Inkunabeln erfasst, die mit Sicherheit mittels Gießinstrument hergestellt wurden, zum anderen zwei Gutenberg zugeschriebenen Drucke analysiert.

Nanette Rißler-Pipka (Universität Augsburg)

Image and Text in Numbers: Layout Analysis of Hispanic Cultural Magazines in Modernity

Thanks to the cooperation between the IAI (Iberoamerikanisches Institut, Preußischer Kulturbesitz, Berlin) and ISLA (Institut für Spanien-, Portugal und Lateinamerikastudien) at the University of Augsburg we are able to work with the digital collection of Hispanic cultural magazines provided by the Ibero-American Institute (http://www.revistas-culturales.de/de/digitale_sammlungen). That means, source of the analysis is only image and no text data (until now there is no text provided by OCR, because OCR for periodicals or magazines is particularly difficult to generate in a satisfying quality). The Layout Analysis consists of two sets of questions and two different methods: On the one hand we observe the change in layout in different titles of magazines, in different timeslots and in different subgenres by observing the images manually and by reading the magazines and literature exemplarily. This would correspond to the traditional method also used before we had the magazines digitized. On the other hand we test if the tool "CodiHub" developed by "eCodicology" (Swati Chandna, KIT) can also be used to analyse the layout of cultural magazines automatically. We will discuss the advantages and problems regarding the practical use of the tool. That means also it will be rather a report on a work in progress than the presentation of results, that could already be able to answer the question of layout phenomena of historical magazines in literary and cultural studies. Nevertheless we try to answer the question how useful the automatic layout analysis for our corpus can be and what has to be done to adopt the tool for this field.
The hypothesis established on the basis of manually and hermeneutic observation for some titles of magazines should be proved or disproved by the numbers given as results from "CodiHub". As the corpus consists of titles of magazines that are quite easily to distinguish and represent different genres (magazines of art, theatre, literature or literary chronicles) and the number of titles is manageable, we are confident to establish some hypothesis manually.
The corpus consists currently of 23 titles with a total of approx. 22.202 pages (magazines from: Argentina, Peru, Ecuador, Puerto Rico and Cuba). It is a collection of historical magazines published around the turn of the century (1869-1931). They are like all historical documents menaced by the decay of paper material and through digitization they are at least temporary saved in another form. By the help of "CodiHub" we create for each page metadata which gives us more information about the numerical relation between image and text. These tables of measurements can help us determine various co-relations in the data.

Torsten Schaßan (Herzog August Bibliothek Wolfenbüttel)

Wo bitte geht's hier zur Schriftklassifikation? Per Taxonomie und auf anderen Wegen

In der Kodikologie spielt die Merkmale einer Schrift für die Datierung und Lokalisierung der Handschrift eine wichtige Rolle. Zwar lassen sich auch andere, geistesgeschichtliche Fragestellungen an diese Merkmale anknüpfen, wie etwa der Einfluss der Textsorte oder die Organisationsform eines Skriptoriums auf die Schriftgestalt, aber insbesondere im Kontext der Handschriftenkatalogisierung dient die Schrift dort, wo Kolophon, Nennung lokaler Heiliger oder andere inhaltliche Bezüge fehlen, der Ermittlung dieser wichtigen Information.
Um die Merkmale einer Schrift in größere Bezüge einordnen zu können hat die Paläographie immer schon versucht, aus den visuellen Eigenschaften eine Klassifikation abzuleiten. Wie in anderen wissenschaftlichen Zweigen auch hat sich die Zunft aber nicht auf ein Bennenungsschema einigen können, sondern konkurrierende Klassifikationen ausgebildet. Wie soll aber in einer Zeit, da verstärkt Handschriftenkataloge und andere handschriftenbezogene Informationen in Portalen durchsucht werden können und aufgrund der überwältigenden Menge auch durchsucht werden müssen, mit diesem Problem umgegangen werden? Neue Standardisierungsversuche auf der einen Seite, semantische Technologien und Bildverarbeitungsmethoden auf der anderen Seite bieten Möglichkeiten, Zugänge zu Handschriften zu ermöglichen.

Tjamke Snijders (Universität Gent)

Quantifying hagiographical rewrites: An approach based on word chains

Statements about the frequency of rewriting in the Middle Ages, such as Cercquiglini's dictum 'L'écriture médiévale ne produit pas des variantes, elle est variance', tend to rely on a scholar's personal impression of the source material's variability. The impact of these impressions has been such that it prompted the birth of the New Philology. Basing itself on the premise that variability was one of the most basic characteristics of medieval manuscript culture, the New Philology fundamentally reshaped the field of manuscript studies. Nevertheless, neither proponents nor critics of the New Philology have the data to quantitatively argue their position.
This paper will discuss the methodology of a survey of ca. 1500 saints' lives from the high medieval Southern Low Countries. The aim of this survey was to determine how extensively each saint's dossier was being rewritten, and to investigate to what extent these rewrites could be correlated to contextual factors, such as genre. Methodologically, the survey was conducted by counting whether each life contained at least one 'chain' of 20 or more consecutive words that had been rewritten. Using these results, each saint's dossier was subdivided into one or more 'families', and expressed the amount of families per dossier as a percentage. In this paper, I will discuss the 'word chain' methodology as a way to quantify rewriting practices, present an overview of the results it yielded, and assess the overall useability of this method.

Manfred Thaller (Universität zu Köln)

Müssen kodikologische Metadaten widerspruchsfrei sein?

Gelehrte Editionen wurden traditionell als Endpunkt eines langen Prozesses verstanden, der in einem Opus Magnum kulminierte, das für immer Bestand haben sollte. Oder, zumindest, für sehr lange Zeit. Wir behaupten, dass dies zumindest teilweise aus technischen, nicht Intelektuellen, Voraussetzungen abgeleitet wurde: Mit gedruckten Medien war die Produktion einer Edition ein so aufwändiger Prozess, dass Zwischenversionen einfach nicht kommuniziert werden konnten. Digitale Medien ihrerseits erzeugen diese Kosten nicht und können beliebig verändert werden.
Dies kann als Teil eines größeren Prozesses verstanden werden, der den Zugang zu den Informationen der Geisteswissenschaften insgesamt drastisch verändert und Dinge leicht zugänglich macht, die bisher unterhalb der Zugänglichkeitsschwelle blieben. Auf "alle Quellen" zugreifen zu können – und nicht nur auf die, die durch herkömmliche Editionen verfügbar waren – war lange ein Traum aller historischen Zweige der Geisteswissenschaften. Es ist merkwürdig, dass ausgerechnet dann, wenn dieser Traum an der Schwelle der Verwirklichbarkeit steht, Appelle auftauchen, die die Beschränkung auf einen Kanon nicht als technische Notwendigkeit, sondern als intellektuelle Tugend verkaufen wollen.
Wir schlagen vor, den technischen Wandel bewusst aufzugreifen: Es ist ein konstitutives Merkmal geisteswissenschaftlicher Arbeit, dass die Interpretation des Belegmaterials nie abgeschlossen ist. Die Art, wie wir die Belege darstellen, sollte diesem Sachverhalt Rechnung tragen. Eine Edition ist nach dieser Sichtweise nicht der abschließende Triumph eines genialen Individuums. Sie ist ein kleiner Schritt auf einem langen Weg; aus inhaltlichen Gründen.
Soweit haben wir einen derzeit laufenden Prozess beschrieben, der sich mit den potentiellen intellektuellen Konsequenzen technischen Wandels befasst. Er kann nur umgesetzt werden, wenn einige der Technologien, mit denen wir in implementieren die beschriebene Dynamik direkter widerspiegeln, als dies bis jetzt der Fall ist.
Der Vortrag wird sich auf die technischen Konsequenzen der einleitend beschriebenen methodischen Position beziehen. Wir beginnen (a) mit der Beschreibung eines Mechanismus, der mit Hilfe eines (um einige zusätzliche Parameter erweiterten) TEI Encodings zeigt, wie die Integration von n teilweise widersprüchlichen codicologischen Beschreibungen funktionieren kann. (b) Daraus leiten wir verallgemeinerte Aussagen über die abstrakten Anforderungen, die in einer derartigen Lösung sichtbar werden und (c) beschreiben potentielle allgemeine Lösungen aus der Sicht der Softwaretechnologie.













       
zum Seitenanfangzum Seitenanfang