Abstracts


Anna Boroffka (University of Hamburg)

Zwischen Buchdruck und Bilderhandschrift - Das Manuskriptlayout des Codex Florentinus als transkultureller Aushandlungsraum

Der inzwischen in der Biblioteca Laurenziana in Florenz aufbewahrte Codex Florentinus ist ein dreibändiges Manuskript, welches um 1577 unter der Leitung des spanischen Franziskanermissionars Bernardino de Sahagún in Neuspanien (dem heutigen Mexiko) entstand. Die Handschrift wurde nach dem Vorbild europäischer Enzyklopädien angefertigt. In zwölf Büchern schildert sie die Fauna und Flora Neuspaniens sowie die Religion, Astronomie und Astrologie, soziale Ordnung, Moralvorstellungen, Geschichte und Regenten der auch als Azteken bezeichneten Mexica. Unter den erhaltenen kolonialzeitlichen Manuskripten aus dem spanischen Vizekönigreich ist es das einzige, das konsequent zweisprachig auf Náhuatl – der Sprache der Mexica und Lingua franca Mesoamerikas – und Spanisch verfasst wurde. Ebenso singulär sind die nach Vorlage europäischer Druckgrafik gestalteten und mit zahlreichen mesoamerikanischen Glyphen durchsetzten Miniaturen, welche die spanischen Passagen über weite Strecken als Übersetzungsmedium des Náhuatl-Textes ablösen. Anhand dieser Text-Bild-Beziehungen geht das vorgestellte, am SFB 950 – Manuskriptkulturen in Asien, Afrika und Europa (Centre for the Study of Manuscript Cultures) der Universität Hamburg angesiedelte kunsthistorische Forschungsprojekt davon aus, dass sich die visuelle Organisation des Manuskriptes als transkultureller Übersetzungs- und Aushandlungsraum der Frühen Neuzeit beschreiben lässt.

Hannah Busch (University of Trier), Oliver Schmid (Technische Universität Darmstadt), Swati Chandna (Karlsruhe Institute of Technology)

eCodicology – Algorithms for the Automatic Tagging of Medieval Manuscripts

Digital methods, tools and algorithms are gaining in importance for the analysis of digitized manuscripts collections in the arts and humanities. One example is the BMBF- funded research project "eCodicology" which aims to design, evaluate and optimize algorithms for the automatic identification of macro- and micro- structural layout features of medieval manuscripts. The main goal of this research project is to provide better insights into high-dimensional datasets of medieval manuscripts. The heterogeneous nature and size of the humanities data and the need to create a database of automatically extracted reproducible features for better statistical and visual analysis are the main challenges in designing a workflow for arts and humanities.
We present a concept called as CodiHub to facilitate exploration of co-relations in the abstract feature space of large sets of digitized medieval manuscripts. As a starting point, the workflow uses medieval manuscripts digitized within the scope of the project "Virtual Scriptorium St. Matthias". Firstly, these digitized manuscripts are ingested into a data repository. Secondly, SWATI (Software Workflow for the Automatic Tagging of the Medieval Manuscript Images) is designed for the identification of macro- and micro-structural layout elements like page size, writing space, number of lines etc. And lastly, visual, statistical analysis scientific evaluation of the manuscripts groups are performed. The workflow is designed generically to process large amounts of data automatically with any desired algorithm for feature extraction.
CodiHub shows the potential of automatic image analysis by enabling the processing of a single page in less than a minute. Furthermore, the accuracy tests of the workflow on a small set of manuscripts with respect to features like page size and text areas show that automatic and manual analysis are comparable. The usage of a computer cluster will allow the highly performant processing of large amounts of data. The software framework itself will be integrated as a service into the DARIAH infrastructure to make it adaptable for wider range of communities.

Matthew James Driscoll (Arnamagnæan Institute, Copenhagen)

The legendary legacy: Crunching 600 years of saga manuscripts

The research project "Stories for all time", which ran from 2011 to 2014, had as its aim to survey the entire transmission history of the Fornaldarsögur Norðurlanda, a group of Icelandic sagas often referred to in English as "mythical-heroic" or "legendary" sagas (see the project website: http://fasnl.ku.dk/). Although the sagas themselves are thought to date from the 13th or 14th century, they are preserved mostly in post-medieval paper manuscripts. We set out therefore to locate and catalogue all the manuscripts containing texts of the 35 sagas which make up the corpus. In the end we found over 1000 manuscripts – containing nearly 2000 texts – the earliest from the beginning of the 14th century, the latest from the beginning of the 20th. About a quarter of these were not previously known to scholarship. We catalogued all of these manuscripts using a very restrictive subset of the TEI manuscript description module, which allows us to compare codicological and other features of the manuscripts in a way hitherto impossible. In my paper, I would like to present the schema and some of the results of our analysis of the encoded data.

Oliver Duntze (Berlin State Library)

Von Typen, Bäumen und Netzen – Ansätze zu einer quantifizierenden Typographiegeschichte

Der "Gesamtkatalog der Wiegendrucke" (GW) und das "Typenrepertorium der Wiegendrucke" (TW) bieten eine umfangreiche Basis für eine computergestützte statistische Auswertungen typographischer Daten: Da die Bestimmung des in einem Druck verwendeten Typenmaterials eine wichtige Rolle bei der Zuweisung unfirmierter Inkunabeln spielt, verzeichnet der GW derzeit zu gut 16.000 Inkunabelausgaben (von insgesamt ca. 30.000) die in ihnen verwendeten Drucktypen. Die methodische Grundlage der Typenbestimmung bildet dabei Konrad Haeblers 1905–1924 erschienenes "Typenrepertorium der Wiegendrucke", das unter dem Kürzel TW seit 2013 in einer online-Version verfügbar ist. Das TW verzeichnet das typographische Material von über 1.400 Offizinen des 15. Jahrhunderts und enthält Datensätze zu über 6.000 verschiedenen Drucktypen und etwa 7.000 Initialen, Titelholzschnitten und Druckermarken.
Der erste Teil des Vortrags zeigt, wie mit Hilfe von Algorithmen, die für bioinformatische Fragestellungen entwickelt wurden (z.B. Neighbour Joining), Druckprogramme einzelner Offizinen unter typographischen Gesichtspunkten gegliedert werden können. In Analogie zu evolutionsbiologischen Stammbäumen wird dabei ein typographisches ‚Stemma‘ der Drucke rekonstruiert, das die zeitliche Entwicklung einer Offizin und ihres Druckprogramms abbildet.
Der zweite Teil des Vortrags widmet sich der Untersuchung druckerspezifischer Typeninventare mit Hilfe von Methoden, die in der sozialen Netzwerkforschung entwickelt wurden. In Analogie zu Fragestellungen der sozialen Netzwerkforschung kann untersucht werden, welche Typen in einer Druckerei gemeinsam verwendet wurden und wie häufig dies der Fall war. Mit diesem Ansatz ist es möglich, das typographische Material einer Offizin als Netzwerk zu modellieren und zu visualisieren. Das typographische Inventar der Druckerei kann dadurch mit explorativen Methoden aus der Netzwerkforschung gegliedert und untersucht werden.

Michael Embach (Stadtbibliothek/Stadtarchiv Trier)

Von der historischen Originalüberlieferung zur Digitalisierung – Chancen und Risiken

Der Vortrag möchte im Sinne eines Praxisberichts über die langjährigen Erfahrungen der Stadtbibliothek Trier mit Digitalisierungsprojekten ganz unterschiedlicher Art und Wertigkeit informieren. Als ein Haus mit einem vergleichsweise hohen Anteil historischer Originalüberlieferung ist die Trierer Stadtbibliothek permanent vor die Notwendigkeit zur Digitalisierung wertvoller historischer Bestände gestellt. In Frage kommen bzw. bereits digitalisiert sind zusammenhängende monastische Korpora wie die Handschriften der Abtei Trier-St. Matthias, des Weiteren kostbare Einzelhandschriften, deren weltweite Erforschung auf diese Weise erleichtert werden soll, Drucke aus der Inkunabelzeit sowie letztendlich breitere Bestandsgruppen aus dem Raum des ehemaligen Erzbistums und Kurfürstentum Trier. Viele Titel aus dem Bereich dieser letztgenannten "treverensischen" Literatur sind bereits in das dezentral aufgebaute Portal "Dilibri" eingeflossen.
Angesichts der Fülle und Diversität der anstehenden Maßnahmen stellt sich die Frage nach einer übergreifenden Digitalisierungspolitik, nach den konservatorischen Aspekten der jeweiligen Initiativen sowie letztendlich nach den Hostingaspekten und der Langzeitarchivierung der durchgeführten Digitalisierungsprojekte.

Gábor Hosszú (Budapest University of Technology and Economics)

Phenetic Approach to Script Evolution

Computational palaeography, as a branch of applied computer science deals with the evolution of graphemes and scripts. The research efforts of our group cover a broad range of topics related to computational palaeography, including modelling graphemes in different abstraction levels, reconstruction of lineage of graphemes in various scripts, investigation of methods for testing the appropriateness of the reconstructed descent lines of graphemes, application of machine learning (clustering and numerical taxonomy) methods for exploring similarities among scripts, and developing algorithm for deciphering historical inscriptions.
The paper details the similarity groups of graphemes created by phenetic tools, and the investigations carried out to explore the relationships among more than 60 different scripts using clustering and factor analysing algorithms. Based on the results, the fine-tune branching pattern of scripts can be constructed. As an application of the developed methods, the novel results for the roots of some less known scripts (e.g. Rovash scripts) are obtained.

Andrew Irving (University of Notre Dame)

Towards an Archaeology of Beneventan Gospel Books: A Quantitative Approach

Gospel books, central to the celebration of medieval Christian liturgy, are frequently assumed to be in some way different to other books. By investigating each material aspect of the eight surviving Gospel books from the Abbey of Montecassino dating to the eleventh century, in comparison with codicological data gleaned from three data sets – 1) all other surviving Latin Gospel books produced in the Southern Italian script, 2) all known book products of the contemporary Cassinese scriptorium, and 3) the data supplied by Francesco Bianchi et al.’s quantitative codicological study of eleventh-century Italian manuscripts, we are in a better position to assess to what extent this is the case. The paper will introduce the corpus, describe the method employed in the study, and provide examples of findings paying particular attention to unexpected variability. It will advert to problems arising in the comparison, and explore implications of the "archaeological" method.

Karl Lenger (University Library of Graz)

Steirische Kultur digital im 3. Jahrtausend – ein institutionsunabhängiges Kulturprojekt!

Die österreichische Einrichtung des HRSM-Fonds zielt unter anderem darauf ab, Universitäten als Mittler regionaler Forschungs- und Kulturprojekte zu etablieren. Im Rahmen des Projektes das „Steirische kulturelle Erbe“ sollen u.a. die mittelalterlichen Handschriften des säkularisierten Stiftes Seckau (heute UB Graz), die Objekte des Stadtmuseums Graz, der gesamte Sondersammlungsbereich der Kunst-Universität Graz, die Dissertationsakten, die Promotionsbücher und die dazugehörigen historischen Dissertationen der KFU in einem eigenen Online-Portal präsentiert werden. Das Digitalisierungszentrum der Universitätsbibliotheksbibliothek Graz bildet mit seinen technischen Einrichtungen und seinem einzigartigen Know how einen zentralen Dreh- und Angelpunkt des gesamten Vorhabens. In Graz entwickelte Kameratische und mobil einsetzbare Traveller stehen dafür gleichsam im Dauereinsatz und erleben eine neue Bewährungsprobe. Dieser Vortrag soll Einblicke in den für das Projekt verwendeten Gerätpool des Digitalisierungszentrums Graz und in die Entwicklung des ersten österreichischen Handschriftenportals geben.

Johan Oosterman (Radboud University Nijmegen)

Manuscript Hunt in Digital Times. Methodological Considerations, and some Remarkable Finds

In the 1990's I participated in the making of two repertories: one of medieval Dutch rhymed prayers, the other of Dutch songs before 1600. I made use of printed sources, catalogues, editions, card-indexes in libraries and research institutions etc. Recently, during a sabbatical leave, I resumed the searching of manuscripts and texts, mainly on the field of rhymed prayers. This time I made of course extensively use of all the instruments and techniques available. In my presentation I will present the changed ways of searching, and discuss the new opportunities but also the problems you're faced with. I'll present some of the (spectacular) results and I'll to examine whether the new results provided simply more data or resulted in a re-examination of former conclusions.

Robert Giel (Berlin State Library)

Von Manuscripta Mediaevalia zu einem neuen Handschriftenportal

Manuscripta Mediaevalia (ManuMed) entstand vor mehr als 20 Jahren als Nachweis- und Katalogisierungsinstrument für mittelalterliche und frühneuzeitliche Handschriften in öffentlichen Sammlungen in Deutschland. Während der Aufbau von ManuMed durch die DFG gefördert wurde, liegt die Trägerschaft seit 2000 bei der Staatsbibliothek zu Berlin, der Bayerischen Staatsbibliothek und bei dem Bildarchiv Foto Marburg. Inzwischen werden mehr als 90.000 Handschriften in ManuMed nachgewiesen. Einige Dutzend Bibliotheken katalogisieren ihre Codices über die Erfassungsmaske von ManuMed.
Da die Software von ManuMed den aktuellen Anforderungen, insbesondere hinsichtlich der Bereitstellung von digitalisierten Handschriften, nicht mehr entspricht, haben die Bayerische Staatsbibliothek und die Staatsbibliothek zu Berlin sich für den Aufbau eines neuen Handschriftenportals entschieden. Zusammen mit der UB Leipzig und der HAB Wolfenbüttel soll in den nächsten Jahren ein solches Portal entworfen, entwickelt und bereitgestellt werden. Dieses Portal soll die Inhalte von ManuMed übernehmen, aber für die Erfassung und Präsentation von Handschriftenbeschreibungen, für die Export von Daten sowie für die Bereitstellung von digitalisierten Handschriften neue Module enthalten.

Christoph Reske (Johannes Gutenberg University of Mainz)

Mikroskopischer Vergleich von Drucktypen der Inkunabelzeit

Ausgangspunkt meiner Untersuchungen waren die von zwei US-amerikanischen Wissenschaftlern vorgenommenen softwarebasierten Vergleiche an Johannes Gutenberg zugeschriebenen Drucktypen. Sie stellten derart große Abweichungen bei den Drucktypen fest, dass sie das in späterer Zeit sicher zu belegenden Gießinstrument als Herstellungsgerät für die Typen ausschließen. Mein Vortrag präsentiert die Ergebnisse einer computerunterstützten mikroskopischen manuellen Vergleichsuntersuchung an Drucktypen des 15. Jahrhunderts, die mit Quellen zur Typenherstellung und zum Druckprozess kontextuiert werden. Es geht um die Vergleichbarkeit der tatsächlich zu beobachteten Phänomene mit den aus Gießinstrumenten entstandenen Druckwerken. Hierzu wurden zum einen Typen von Inkunabeln erfasst, die mit Sicherheit mittels Gießinstrument hergestellt wurden, zum anderen zwei Gutenberg zugeschriebenen Drucke analysiert.

Nanette Rißler-Pipka (Universität Augsburg)

Image and Text in Numbers: Layout Analysis of Hispanic Cultural Magazines in Modernity

Thanks to the cooperation between the IAI (Iberoamerikanisches Institut, Preußischer Kulturbesitz, Berlin) and ISLA (Institut für Spanien-, Portugal und Lateinamerikastudien) at the University of Augsburg we are able to work with the digital collection of Hispanic cultural magazines provided by the Ibero-American Institute (http://www.revistas-culturales.de/de/digitale_sammlungen). That means, source of the analysis is only image and no text data (until now there is no text provided by OCR, because OCR for periodicals or magazines is particularly difficult to generate in a satisfying quality). The Layout Analysis consists of two sets of questions and two different methods: On the one hand we observe the change in layout in different titles of magazines, in different timeslots and in different subgenres by observing the images manually and by reading the magazines and literature exemplarily. This would correspond to the traditional method also used before we had the magazines digitized. On the other hand we test if the tool "CodiHub" developed by "eCodicology" (Swati Chandna, KIT) can also be used to analyse the layout of cultural magazines automatically. We will discuss the advantages and problems regarding the practical use of the tool. That means also it will be rather a report on a work in progress than the presentation of results, that could already be able to answer the question of layout phenomena of historical magazines in literary and cultural studies. Nevertheless we try to answer the question how useful the automatic layout analysis for our corpus can be and what has to be done to adopt the tool for this field.
The hypothesis established on the basis of manually and hermeneutic observation for some titles of magazines should be proved or disproved by the numbers given as results from "CodiHub". As the corpus consists of titles of magazines that are quite easily to distinguish and represent different genres (magazines of art, theatre, literature or literary chronicles) and the number of titles is manageable, we are confident to establish some hypothesis manually.
The corpus consists currently of 23 titles with a total of approx. 22.202 pages (magazines from: Argentina, Peru, Ecuador, Puerto Rico and Cuba). It is a collection of historical magazines published around the turn of the century (1869-1931). They are like all historical documents menaced by the decay of paper material and through digitization they are at least temporary saved in another form. By the help of "CodiHub" we create for each page metadata which gives us more information about the numerical relation between image and text. These tables of measurements can help us determine various co-relations in the data.

Torsten Schaßan (Herzog August Bibliothek Wolfenbüttel)

Wo bitte geht's hier zur Schriftklassifikation? Per Taxonomie und auf anderen Wegen

In codicology the features of a script play an important role for dating and localising the manuscript. There are other questions that can be dealt with by examining these features, e.g. questions of intellectual history, influences of literary genres or influences of organisational aspects of scriptoria on the shape of script. But especially in the context of manuscript cataloguing the classification of script is of highest importance if other evidences like a colophon or references like naming of local saints feasts are not to be found.
In order to integrate the features of a script in larger contexts palaeography has always strived for inference of a taxonomy from the visual properties. Like in other disciplines the community was not successful in achieving one common naming schema but constituted concurring taxonomies. Thus, what to do with these in times of the need to search huge amounts of manuscript related data in portals? New approaches in standardisation on one hand, semantic technologies and methods for image processing on the other hand offer possibilities to allow for access to the manuscripts.

Tjamke Snijders (Ghent University)

Quantifying hagiographical rewrites: An approach based on word chains

Statements about the frequency of rewriting in the Middle Ages, such as Cercquiglini's dictum 'L'écriture médiévale ne produit pas des variantes, elle est variance', tend to rely on a scholar's personal impression of the source material's variability. The impact of these impressions has been such that it prompted the birth of the New Philology. Basing itself on the premise that variability was one of the most basic characteristics of medieval manuscript culture, the New Philology fundamentally reshaped the field of manuscript studies. Nevertheless, neither proponents nor critics of the New Philology have the data to quantitatively argue their position.
This paper will discuss the methodology of a survey of ca. 1500 saints' lives from the high medieval Southern Low Countries. The aim of this survey was to determine how extensively each saint's dossier was being rewritten, and to investigate to what extent these rewrites could be correlated to contextual factors, such as genre. Methodologically, the survey was conducted by counting whether each life contained at least one 'chain' of 20 or more consecutive words that had been rewritten. Using these results, each saint's dossier was subdivided into one or more 'families', and expressed the amount of families per dossier as a percentage. In this paper, I will discuss the 'word chain' methodology as a way to quantify rewriting practices, present an overview of the results it yielded, and assess the overall useability of this method.

Manfred Thaller (University of Cologne)

Have codicological metadata to be free of contradictions?

Scholarly editing has traditionally been understood as a long process, culminating in an opus magnum which stands forever after. Or at the very least, for very long. We argue that this is at least partially derived from technical, not intellectual premises: With printed media, an edition was so expensive to produce, that intermediary versions have been impossible to distribute. Digital media on the other hand do not create these costs and can be changed arbitrarily often.´
This can be seen as part of a process, which changes the accessibility of Humanities’ information drastically and makes many things easily accessible, which have so far been considered below the horizon. Having "all the sources" available, rather than the small subset, that could be made available by traditional editions, has long been a dream of the historical branches of the Humanities. It is strange, that when this dream could actually be made real, we read suddenly appeals for sticking to a canon not as a technical necessity, but as an intellectual virtue.
We propose to embrace the technical changes willingly: It is a constituent characteristic of the Humanities, that the interpretation of evidence is never concluded. The way in which we present evidence should reflect that. An edition, therefore, is not the culminating final triumph of an individual genius. It is, for intellectual reasons, a small step on a long road.
While so far we have described an ongoing process, which deals with the potential intellectual consequences of technical change, this change can only be implemented, if some of the technologies with which we implement it reflect this form of dynamism more directly, than they did so far.
This presentation will focus on these technical consequences of the methodological statement given above. We will (a) start with a mechanism implemented using a TEI (plus a few additional parameters) encoding to show, how an integration of n partially contradictory codicological description can work, derive (b) some generalizing observations on the abstract requirements reflected by such a solution and (c) outline potential solutions in software technology.












       
zum Seitenanfangzum Seitenanfang