Normalisierung Selina Galka Projektleitung Helmut W. Klug Datenmodellierung Selina Galka Datenmodellierung Elisabeth Steiner Bundesministerium für Wissenschaft, Forschung und Wirtschaft Zentrum für Informationsmodellierung - Austrian Centre for Digital Humanities, Karl-Franzens-Universität Graz Austria Zentrum für Informationsmodellierung - Austrian Centre for Digital Humanities, Karl-Franzens-Universität Graz Austria GAMS - Geisteswissenschaftliches Asset Management System Creative Commons BY 4.0 2021 Graz o:konde.146 KONDE Weißbuch Projektleitung Helmut W. Klug Weißbuchartikel: Normalisierung Selina Galka Herausgegeben von Helmut W. Klug unter Mitarbeit von Selina Galka und Elisabeth Steiner 2021 Austria KONDE Weißbuch

Im KONDE-Projekt, das aus Hochschulraumstrukturmitteln finanziert wird, beschäftigten sich sieben universitäre Partner und drei weitere Einrichtungen aus unterschiedlichen Blickwinkeln mit theoretischen und praktischen Aspekten der Digitalen Edition. Ein Outcome des Projektes stellt das Weißbuch dar, welches über 200 Artikel zum Thema Digitale Edition umfasst. Die behandelten Themenkomplexe reichen dabei über Digitale Editionswissenschaft im Allgemeinen, Annotation und Modellierung, Interfaces, Archivierung und Metadaten bis hin zu rechtlichen Aspekten.

Deutsch
Normalisierung
Galka, Selina; selina.galka@uni-graz.at

Unter Normalisierung versteht man die Anpassung von historischen oder persönlichen Schreibweisen an eine (standardisierte) Norm. Je nach Zweck und Zielgruppe der Edition können mehr oder weniger tiefgreifende Normalisierungsmaßnahmen getroffen werden.

In der Editionsgeschichte haben sich unterschiedliche Ansätze herausgebildet: Während Karl Lachmann, Wegbereiter der wissenschaftlichen Textkritik und Editionswissenschaft, von einer übergeordneten, normierten Literatursprache ausging, an die der Text angepasst werden muss, gibt es daneben den diplomatischen Abdruck (diplomatische Edition), der versucht, den historischen Text ohne jegliche Normalisierung so genau wie möglich abzubilden.

Die Normalisierungsmaßnahmen können beispielsweise historische Klein- und Großschreibung, Interpunktion, Konsonantenverdoppelung oder Getrennt- und Zusammenschreibung betreffen. Normalisierungen können explizit gekennzeichnet oder stillschweigend vorgenommen werden; der Umgang mit Normalisierungen sollte jedoch genau in den Transkriptionsrichtlinien dokumentiert und erklärt werden.

Die Normalisierung bei Digitalen Editionen spielt sowohl bei der Modellierung, Auszeichnung und Anreicherung der Texte mit XML/TEI eine Rolle als auch bei der Webrepräsentation. Normalisierungen können mit dementsprechenden TEI-Elementen kodiert werden, beispielsweise mit <choice>:

<choice> <orig>parceque</orig> <reg>parce que</reg> </choice>

Somit können auch die unterschiedlichen Varianten, wenn gewollt, in der Webrepräsentation der Digitalen Edition angezeigt werden.

Angleichung, Normalisierung, Restitution. Die Edition hybrida als Schicksal der deutschen Klassiker? Norbert Oellers Oellers, Norbert; Steinecke, Hartmut: Probleme neugermanistischer Edition. Zeitschrift für deutsche Philologie 101 1982 Roundtable. Normalisierung und Modernisierung der historischen Graphie. Mit Beiträgen von: Thomas Bein (Aachen), Kurt Gärtner (Trier), Andrea Hofmeister-Winter (Graz), Ulrike Leuschner (Darmstadt), Wolfgang Lukas (Wuppertal), Hans-Gert Roloff (Berlin), Claudia Schumacher (Aachen), Winfried Woesler (Osnabrück, Koordinator) Thomas (Hrsg.) Bein Vom Nutzen der Editionen. Zur Bedeutung moderner Editorik für die Erforschung von Literatur- und Kulturgeschichte Berlin, Boston 419–460 de Gruyter 2015 Beihefte zu editio. 39 Die Normalisierung historischer Orthographie als wissenschaftliche Aufgabe Winfried Woesler Zeitschrift für deutsche Philologie 105, Sonderheft 69–83 1986
diplomatische Edition Markup Modellierung Textmodellierung TEI XML Digitale Edition Transkriptionsrichtlinien Datenmodell "hyperdiplomatische Transkription"
Einführung Digitale Editionswissenschaft
Parvum Lexicon Stemmatologicum