Zum Hauptinhalt springen
KatKit

Workshop: Softwaregestützte Kategorienentwicklung in Praxis und Forschung

Programm
Online-Workshop am 21.-22. Februar 2022

Montag, 21. Februar 2022 #

13:00 - 13:10 Gius Begrüßung
13:10 - 13:30 Gerstorfer Vorstellung des Rahmenprojekts
13:30 - 14:00 Gerstorfer Eine Taxonomie von Taxonomien
14:15- 14:55 Doat Skizze eines mathematischen Topos der Fiktion
14:55 - 15:35 Barabucci Die Klassifikation des nicht Klassifizierten: Eine Untersuchung der Residualkategorien in ICD-10
15:50 - 16:30 Wagner Taxonomie rechtlicher Regelungsmaterien zwischen Generation Y und Web3.0
16:30 - 17:10 Horstmann/Normann Taxonomiebasierte Annotation und Semantic Web
19:00 - 20:00 Angelika Zirker Keynote: “some double dealing” – Ambiguität, Unterspezifiziertheit und Vagheit als Analysekategorien der (digitalen) Literaturwissenschaft

Dienstag, 22. Februar 2022 #

9:15 - 9:55 Runte Nutzung von INCEpTION zur Entwicklung und Verwendung von Auszeichnungsrichtlinien für Textprozeduren
9:55 - 10:35 Pfeiffer NCAC National Digital Archive of The Gambia
10:50 - 11:30 Kröncke Entwicklung, Anwendung und experimentelle Reflexion von Annotationskategorien im Projekt The Beginnings of Modern Poetry
11:30 - 12:10 Jurczyk Annotation und Visualisierung des Artikel-Corpus der religionswissenschaftlichen Open Access Zeitschrift Entangled Religions: Vorhaben, Durchführung und Probleme
12:10 - 12:30 Abschlussrunde

Abstracts #

Joel Doat: Skizze eines mathematischen Topos der Fiktion #

Mathematische Kategorientheorie wird bereits länger zur Konstruktion von Sprachontologien verwendet. Der oft dafür eingesetzte Topos verallgemeinert die Subobjektbildung der axiomatischen Mengenlehre und ist daher ein beliebtes Modell für die Unterspezifizierung semantischer Entitäten. Der Vortrag skizziert eine vergessene formale Semantik literarischer Texte, welche die Grundlage für eine topostheoretische Fiktionstheorie bietet. Trotz der Unvollständigkeit und Rückständigkeit dieser Semantik, könnte dadurch eine erste Brücke zwischen mathematischer Kategorientheorie und Literaturwissenschaft geschlagen werden. Zum einen sind die Vorteile einer solchen Herangehensweise an den Trends der Applied Category Theory zu erkennen. Zum anderen eröffnet dieser Einblick in die mathematische Grundlagenforschung die Möglichkeit den informationstheoretischen Charakter der digitalen Literaturwissenschaften durch Begriffe der Berechenbarkeit und formalen Beweisbarkeit zu ergänzen.

Gioele Barbucci: Die Klassifikation des nicht Klassifiziertes: Eine Untersuchung der Residualkategorien in ICD-10 #

ICD-10 ist die 10. Version der International Classification of Diseases, eine Taxonomie medischer Begriffe. Nach der Ökonomisierung des Gesundheitswesens, spielt ICD-10 eine extrem wichtige Rolle als Grundlage der nationalen Klassifikationssysteme, die als Schnittstellen zwischen Arztpraxen und Krankenkassen fungieren. Um eine angemessene Erstattung für ihre Leistungen zu bekommen, müssen Ärtzt:innen jede Behandlung mit dem richtigen ICD-10-Code kennzeichnen.

Daher entsteht für die Ersteller:innen von ICD-10 eine Spannung zwischen einerseits dem Bedürfnis, möglichst präzise Kategorien und Begriffe anzubieten, und andererseits der Notwendigkeit, die gesamte Klassifikation nicht zu verkomplizieren. So findet man in ICD-10 sowohl detaillierte Begriffe wie “I13.11 Cardiorenal hypertension without heart failure with stage 5 or end stage renal disease” oder “B96.21 Escherichia coli O157 with confirmation of Shiga toxin when H antigen is unknown, or is not H7” als auch breite Kategorien wie “R50.82 Postoperative fever”.

Thema dieses Vortrags sind die Residualkategorien in ICD-10. Angesichts ihrer taxonomischen Gestaltung, gibt es in ICD-10 mehr als eine einzige “Verschiedenes”-Kategorie. In der Tat enthält ICD-10 Dutzenden von Residualkategorien. Alle diese Residualkategorien unterscheiden sich in vielerlei Hinsicht voneinander: unter anderem unterscheiden sie sich in ihrer Höhe in der taxonomischen Baumstruktur, in der Zahl der zugeordneten Subkategorien und darin, ob sie überhaupt Subkategorien haben. Aus ontologischer sicht, der relevanteste Aspekt ist, dass diese Unterschiede zwischen Residualkategorien beweisen, dass es unterschiedliche Arten von “miscellanea” gibt, z.B. “außer”-Kategorien (“L56.8 Photodermatitis due to light other than sun”), “nicht näher beschrieben”-Kategorien (“C46.9 Kaposi’s Sarcoma of unspecified site C46.9”) oder “unbekannt”-Kategorien (“R11.14 Bilious vomiting (cause unknown)"). Diese Unterschiede wurden aber bisher von den Ersteller:innen nicht berücksichtigt, mit dem Ergebnis, dass man in ICD-10 ein Potpourri von solchen Kategorien finden kann.

Neben der Beschreibung der konkreten Beispiele von Residualkategorien in ICD-10, wird der Vortrag auch die technischen Schwierigkeiten veranschaulichen, auf die man bei der Implementierung von Annotationstools — oder allgemein bei der Umsetzung von DH-Projekten — stößt, wenn sie eine Kategorisierung nützen, die Residualkategorien enthält.

Andreas Wagner: Taxonomie rechtlicher Regelungsmaterien zwischen Generation Y und Web3.0 #

Der vorgeschlagene Beitrag soll einen Überblick über die Entwicklung eines Klassifikationsschemas für Regelungsmaterien frühneuzeitlicher Rechtsvorschriften (Policeyordnungen) im Rahmen eines großen DFG-geförderten Projekts der 1990er-2010er und darüber geben, wie dieses Kategorienschema in aktuellen Entwicklungen hin zu einer interoperablen Linked-Data-Landschaft transformiert und erweitert wird. Neben methodologischen und konzeptuellen Fragen und Erfahrungsberichten stehen auch die praktische Umsetzung (Formate, Protokolle, Tools) und noch offene Bedarfe im Zentrum der Aufmerksamkeit.

In einem ersten Schritt (“Methodik”) wird vom Prozess berichtet, in dem seinerzeit das Kategorienschema entwickelt wurde. Welche Quellen wurden einbezogen, welche Schwierigkeiten ergaben sich, welche Entscheidungen wurden getroffen und wie stellt sich das Ergebnis dar? (Zum Beispiel bietet die Buchreihe, die aus dem Projekt hervorging, sowohl einen alphabetischen Stichwort-Index als auch einen systematischen Index auf der Grundlage einer systematischen Klassenhierarchie an.) Ein zweiter Schritt (“Interoperabilität”) beschreibt, wie durch die technische Entwicklung, aber auch durch die zwischenzeitliche Einrichtung ähnlich gelagerter Projekte in anderen Rechtsräumen ein erhöhter Bedarf an der Nachnutzung des Klassifikationsschemas entstand, sowie an der Möglichkeit, die Ressourcen verschiedener Projekte vergleichend miteinander ins Gespräch zu bringen. Offenkundig ist das Ziel, die Daten als Linked Open Data zur Verfügung zu stellen, diesem Bedarf geschuldet und verlangt eine Strategie, auch das bislang projektspezifische Schema interoperabel auszugestalten, was intellektuelle, technische und nicht zuletzt soziale Prozesse erfordert. Hier werden die bislang durchgeführten Schritte beschrieben, aber auch noch offene Bedarfe benannt und unsere Vorstellungen darüber geschildert, wie wir in diesen Punkten weiter vorankommen wollen. Schließlich werden diese “Modernisierungs”-Prozesse in ihren praktischen Aspekten beschrieben (“Praxis”): Welche Eigenheiten bietet das als Datenformat gewünschte SKOS, wie wird es aus einem Legacy- in dieses aktuelle Format transformiert, wie wird es so gehostet, dass es als LOD-Ressource angesprochen werden kann und wie kann die damit verbundene Infrastruktur im Projektkontext in Anspruch genommen werden, um die Prozesse der Annotation und der Datenbereinigung zu unterstützen?

Jan Horstmann / Immanuel Normann: Taxonomiebasierte Annotation und Semantic Web #

Tagsetentwicklung und Annotation in Tools wie CATMA und die Entwicklung von standardkonformen Ontologien für Linked Open Data im RDF-Format des Semantic Web sind bislang zwei ziemlich getrennt voneinander existierende Bereiche der Entwicklung und Diskussion von Kategoriensystemen bzw. Ontologien. Unser Ziel ist es, diese beiden Bereiche in eine fruchtbare Verbindung zu bringen. In CATMA bearbeitete Projekte und die dort erstellten Annotationen sind nicht mit den global verlinkten Daten des Wissensnetzes (etwa der LOD-Cloud) verknüpft. Was für die persönliche wissenschaftliche Arbeit von Vorteil sein kann, wird zu einem Hindernis, wenn Forschungsergebnisse (und dazu zählen die Kategoriensysteme der Tagsets ebenso wie annotierte Texte) nachhaltig zur Verfügung gestellt und auffindbar gemacht werden sollen. Um die Konzeption von Kategoriensystemen in den DH zu erleichtern, wäre es daher wünschenswert, die eigenen Kategoriensystemen mit weltweit existierenden und zum Einsatz kommenden Ontologien abzugleichen und (Sub-)Kategorien reziprok ergänzen zu können. In unserem Beitrag wollen wir eine solche Erweiterung der Entwicklung von Kategoriensystemen in Richtung einer RDF-Modellierung vorschlagen, Ansätze hierfür an zwei konkreten Beispielen demonstrieren, sowie Impulse für eine mögliche technische Umsetzung geben.

Ob Tagsets bottom-up (d.h. unsystematisch etwa beim Lesen eines Textes) oder top-down anhand etablierter wissenschaftlicher Taxonomien erstellt werden – in beiden Fällen entstehen mehr oder weniger hierarchische Systeme, die auch als auf RDF-Tripeln basierende Netzwerke beschrieben werden können. Insbesondere im Top-Down-Ansatz mit dem Ziel der taxonomiebasierten und guidelinegestützten Annotation entstehen Kategoriensysteme, die von generischem Interesse für ganze Wissenschaftsdisziplinen sind. Die z.B. auf fortext.net bereitgestellten Tagsets zur Narratologie (discours und histoire) operationalisieren seit Jahrzehnten etablierte und weltweit genutzte erzähltheoretische Analysekategorien. Einer der Vorteile einer Modellierung solcher Taxonomien als Knowledge Graph ist die Explizierung der häufig impliziten relationalen Aspekte einzelner Tags. Ohne dass die Tagsets selbst verändert werden müssten, gäbe die übergeordnete Ontologie innerhalb der Graph-Modellierung Hinweise zu Relationen, die bei den einzelnen Tags und Subtags (Klassen und Subklassen in der Terminologie des Semantic Web) jeweils vorausgesetzt werden. Im genannten Beispiel des discours-Tagsets etwa sind alle Subtags der Kategorie „Zeit“ relationaler Natur und beschreiben das Verhältnis von erzählter und Erzählzeit. Ciotti (2016, 30) benennt als Vorteile der Ontologisierung die Formalisierung individueller wie kollaborativer Annotationsprozesse sowie die Möglichkeit der Abfrage (Query) und Analyse mittels maschineller Verknüpfungen und logischer Inferenzen („logical reasoners“). „Moreover Semantic Web ontological formalisms, like RDF-S and OWL, provide methods to share, compose and eventually merge different ontologies“ (ebd., 35). Taxonomien operationalisierende Tagsets sollten (a) technisch auffindbar sein und (b) in das jeweils eigene Projekt importierbar sein, ohne die konzeptionelle oder auch praktische Arbeit der Tagseterstellung in jedem neuen Forschungsprojekt wiederholen zu müssen. Beiden Bedarfen lässt sich durch die Modellierung von Tagsets als Linked Open Data in Form von in das Semantic Web eingebetteten Graphen entsprechen.

Auch eine entgegengesetzte Operationalisierung wäre denkbar: Im Semantic Web formalisierte Kategoriensysteme etwa in Form von etablierten Standard-Ontologien wie CIDOC-CRM (bzw. individuell ausgewählte Teile und Spezialisierungen davon wie etwa das Model for Phenomena CRMsoc) sollten niedrigschwellig in Tagsets für Annotationstools umgeformt werden und für die eigene Textannotation genutzt werden können. Im Vortrag wollen wir an konkreten Beispielen orientiert eine solche Vereinbarkeit von Standardontologien in Graphformat und Kategoriensystemen im Tagsetformat diskutieren.

Maren Runte: Nutzung von INCEpTION zur Entwicklung und Verwendung von Auszeichnungsrichtlinien für Textprozeduren #

Im Projekt “Digital Literacy in University Contexts” werden digitale Tools und Funktionalitäten evaluiert, die beim Sprachenlernen und beim akademischen Schreiben an Schweizer Hochschulen Anwendung finden. Das Projekt wird von swissuniversities im Programm “[Stärkung von Digital Skills in der Lehre(https://www.swissuniversities.ch/themen/digitalisierung/digital-skills)]” gefördert . Die Partnerhochschulen (Berner Fachhochschule, Pädagogische Hochschule Zürich, Universität Neuenburg, Zürcher Hochschule für Angewandte Wissenschaften) wollen mit dem Projekt einen selbstbewussten, resilienten und reflektierten Umgang mit digitalen Schreibunterstützungen im Hochschulkontext fördern.

In der angewandten Linguistik verstehen wir unter «Digital Literacy» die Kompetenz, digitale multimodale Kommunikation im Kontext adäquat zu erfassen, zu reflektieren, zu verarbeiten und zu entwickeln. Akademisches Schreiben hat dort einen hohen Stellenwert. Um den Erwerb dieser Kompetenz zu unterstützen, entwickeln wir Hilfsmittel für Studierende wie auch für Dozierende und Schreibzentren. Im Fokus steht die Frage, wie sich digitale Tools und Funktionalitäten in den Prozess der Schreibberatung einbinden lassen, die Beratende entlasten.

Im Moment arbeiten wir an der Erkennung von und Feedback zu Textprozeduren in Einleitungen. Im englischen akademischen Umfeld sind solche Werkzeuge zu moves und steps (Swales 2014) bereits etabliert und werden eingesetzt. Einerseits geht es also um die Adaption auf die deutsche Sprache, andererseits sind deutschsprachige Abschlussarbeiten anders aufgebaut als typische englischsprachige Hochschul-Essays.

Wir benötigen also ein eigenes Kategoriensystem, dazu gehen wir wie folgt vor: Für 6000 deutschsprachige Abschlussarbeiten auf Stufe Bachelor und Master aus verschiedenen Disziplinen und Hochschulen werden Einleitungen iterativ ausgezeichnet. Ausgehend von etablierten Kategoriensystemen (Swales 2014, Weder 2015, Gray et al. 2020) werden entsprechende Textabschnitte mit INCEpTION für einen Teil der Texte manuell markiert und gelabelt. Die Kategoriensysteme wurden dazu als Labels in INCEpTION angelegt. Die Möglichkeit, Annotationen zu kuratieren dient einerseits der Kalibrierung der AnnotatorInnen und andererseits ist es Ausgangspunkt für die schrittweise Entwicklung eines Kodierleitfadens und des Kategoriensystems. Die manuell annotierten Einleitungen werden anschliessend maschinell ausgewertet, um sie für weitere Texte als “recommender” in INCEpTION einzusetzen. Aus der Entwicklung ähnlicher Schreibunterstützungssysteme für Englisch ist bekannt, dass grosse Mengen annotierter Texte als Grundlage notwendig sind. Wir hoffen, dies mit diesem Prozess in relativ kurzer Zeit zu erreichen und den manuellen Aufwand zu reduzieren.

Die Auszeichnung mit INCEpTION erlaubt zudem den Export der entsprechenden Textpassagen, um daraus halbautomatisch ein “phrase book” für Muster von Textprozeduren zu erstellen. Dieses Phrasebook soll später als Hilfsmittel in ThesisWriter integriert werden.

Katrin Pfeiffer / Leonie Maßmann / Henning Schreiber: NCAC National Digital Archive of The Gambia #

Seit 2016 arbeitet die Abteilung für Afrikanistik der Universität Hamburg zusammen mit dem National Center for Arts and Culture (NCAC) in Gambia an der Digitalisierung des an dessen Research and Documentation Division (RDD) aufbewahrten, Ende der 1950er Jahren gegründeten Archivs.

Das Projekt NCAC National Digital Archive of The Gambia hat zum Ziel, sowohl die über 5.000 Tonband- und Kassettenaufnahmen als auch die ca. 1.200 dazugehörigen Transkriptionen und/oder Übersetzungen zu digitalisieren und diese nach TEI- und zugleich Bibliotheksstandards zu veröffentlichen. Die Aufnahmen beinhalten Berichte, Erzählungen und Interviews mit vornehmlich historischem und kulturellem Fokus. Besonders die historisch relevanten Texte spiegeln die bisher in der Literatur weitgehend vernachlässigte afrikanische Perspektive auf die britische Kolonialzeit. Einige der Aufnahmen enthalten fiktionale Erzählungen und Musik.

Die aktuelle Hauptaufgabe innerhalb der Projekts ist die Entwicklung relevanter Kategorien, kontrollierter Vokabularien, standardisierter Tags und die dazugehörige Ontologie. Da wir es fast ausschließlich mit Aufnahmen auf den lokalen Sprachen Gambias und der Verwendung kulturspezifischer Begriffe zu tun haben, sind die Herausforderungen insofern groß, als sich bisher niemand – auch in Institutionen, die für die Sprachplanung in Gambia zuständig sind flächendeckend auf nationaler Ebene um die Standardisierung von z.B. orthographischer Darstellung gekümmert hat, obwohl die Ressourcen hierfür bereits seit Ende des 20. Jahrhunderts vorhanden sind.

Als „Best Practice“ hat das Projekt einen Workflow etabliert, der Kategoriensysteme in Absprache mit Vertretern verschiedener Interessengruppen in Gambia entwickelt. Während allgemeine Metadaten mit existierenden Schemata beschrieben werden können, ist eine der vordringlichsten Aufgaben die Etablierung von kulturspezifischen Taxa und standardisierten preferred forms u.a. für Orts- und Personennamen. Dieses Vorgehen ist auch von politischer Bedeutung, da die diversen gebräuchlichen Schreibweisen desselben Namens nicht nur die britische Kolonialvergangenheit, sondern auch präkoloniale Entwicklungen in Bezug auf ethnische Mehrheitsbildungen des Landes reflektieren. Auch für die verschiedenen Sprachkunstgenres, die zum Großteil mündlich überliefert werden, gibt es bisher keine standardisierten Bezeichnungen.

Für die Implementierung der Ontologie des NCAC-Thesaurus (SKOS) wird aktuell Protégé verwendet. Allerdings stellt sich die Frage nach einer „Good Practice“, dem konkreten Design und der Integration von unterschiedlichen Standards (Dublin Core, RDFS). Eine weitere Herausforderung stellt u.a. die multilinguale Speicherung von ‘preferred label’ und ‘alternative label’ dar.

Merten Kröncke: Entwicklung, Anwendung und experimentelle Reflexion von Annotationskategorien im Projekt The Beginnings of Modern Poetry #

Der Beitrag behandelt die Entwicklung, Anwendung und Reflexion von Annotationskategorien im Projekt The Beginnings of Modern Poetry (Leitung: Fotis Jannidis, Simone Winko). Das Projekt ist Teil des DFG-Schwerpunktprogramms 2207 Computational Literary Studies und untersucht den Wandel von realistischer zu (früh)moderner Lyrik mit quantitativen, computergestützten Methoden. Ein wichtiger Teil des Projekts besteht in der Annotation von verschiedenen Phänomenen – unter anderem haben wir lyrische Gattungen, Emotionsmarker, Emotionen, Genitivmetaphern und Gedichtähnlichkeiten annotiert – mit dem Ziel, Verfahren zur automatisierten Erkennung dieser Phänomene trainieren und/oder testen zu können. Der Beitrag konzentriert sich auf die Annotation der Emotionsmarker und Emotionen. Seit Juli 2020 haben wir die Emotionsgestaltung in 1278 Gedichten des Realismus bzw. der frühen Moderne annotiert. Als Annotationstool verwenden wir CATMA.

Nach einem Überblick über das Projekt und die projektbezogenen Annotationstasks geht der Beitrag auf zwei Aspekte näher ein:

  1. Entwicklung von Emotionskategorien: Da sich die Annotation auf diskrete Emotionen (Freude, Liebe, Angst usw.) richtet, musste zu Beginn des Projekts ein passendes Set von Emotionskategorien entwickelt werden. Die Kategorien wurden mithilfe eines Workflows erarbeitet, der qualitative und quantitative Elemente kombiniert: Zunächst konnten die Annotator:innen in Pilotannotationen alle Emotionen, die ihnen bei der Annotation der Gedichte hilfreich erschienen, dem Tagset hinzufügen. Die so entstandene Emotionsliste wurde anschließend anhand von Emotionstheorien, aber auch quantitativen Analysen zum Beispiel der häufigsten Emotionsüberschneidungen überprüft und vereinfacht. Der Workflow durchlief mehrere Iterationen. Der Beitrag stellt den Workflow vor und diskutiert, inwiefern dieser auch bei der Entwicklung anderer, nicht-emotionsbezogener Kategoriensets hilfreich sein könnte.

  2. Annotationsexperiment mit projektexternen Annotator:innen: Um die Anwendung der Annotationskategorien im Projekt zu reflektieren, haben wir ein Experiment durchgeführt, das auf den Vergleich von projektinternen und projektexternen Annotator:innen abzielte. 50 Gedichte wurden einerseits von den trainierten, erfahrenen Annotator:innen des Projekts und andererseits von Student:innen aus zwei germanistischen Lehrveranstaltungen annotiert, denen die Annotationsrichtlinien einmal erklärt wurden, die ansonsten aber kein Annotationstraining erhielten. Da die meisten projektexternen Annotator:innen nicht mit CATMA vertraut waren, haben wir sie im Umgang mit dem Annotationstool geschult. Das Experiment erlaubt einerseits, den Effekt des projektinternen Annotationstrainings zu quantifizieren, indem man das Inter-Annotator Agreement der projektinternen und der projektexternen Annotator:innen miteinander vergleicht. Andererseits lässt sich prüfen, ob bestimmte Annotationskategorien von den projektinternen Annotator:innen systematisch anders eingesetzt werden als von den projektexternen, was Anlass geben würde, das Verständnis und die Anwendung der Annotationskategorien innerhalb des Projekts zu reflektieren und zu hinterfragen.

Bei den Ausführungen zur Entwicklung der Emotionskategorien und zum Annotationsexperiment wird es auch darum gehen, inwiefern das Annotationstool CATMA die Arbeit unterstützen konnte und welche zusätzlichen Features hilfreich gewesen wären.

Thomas Jurczyk: Annotation und Visualisierung des Artikel-Corpus der religionswissenschaftlichen Open Access Zeitschrift Entangled Religions: Vorhaben, Durchführung und Probleme #

Die religionswissenschaftliche Open Access Zeitschrift Entangled Religions arbeitet derzeit daran, ihr bestehendes, auf OJS basierendes Publikationssystem um eine zusätzliche Webpräsenz zu erweitern, die unter dem Arbeitstitel Entangled Religions 2.0 firmiert. Neben neuen Features wie der erweiterten Leseansichten (PDF und HTML mit Lens Viewer) besteht ein Hauptanliegen von Entangled Religions 2.0 darin, den Artikelbestand sowohl intern als auch mit externen Ressourcen zu verlinken. Die interne Verlinkung basiert derzeit auf der Annotation der einzelnen Artikel nach . . .

  • religiöser Tradition,
  • Konzept des Artikels (darunter fallen u.a. „Trade“, „Immanenz/Transzendenz“, „Materiality“ usw.),
  • Zeitraum,
  • geographischer Raum,
  • individuell von den Autor:innen vergebene Keywords,

. . . während die externe Verlinkung mit Hilfe von RelBib und deren Vorschlagsfunktion durchgeführt wird. Die interne Annotation wird a) für die Facetten-Suchfunktion genutzt, soll aber auch dazu dienen, b) der Leserschaft Einblicke in die bisherigen Publikationsschwerpunkte von Entangled Religions zu gewähren, beispielsweise durch Visualisierungen (Karte) oder Keyword Clouds, sowie c) die Annotationen künftig mit Hilfe einer API einer an datengetriebener Forschung interessierten Öffentlichkeit zugänglich zu machen. Die Annotation auf Artikelebene ist rudimentär auf Basis einer selbstentwickelten Lösung implementiert, wobei vor allem die Visualisierungen und auch die Konzeptionalisierung der geographischen und zeitlichen Räume noch Schwierigkeiten bereiten, was nicht zuletzt an der Themenvielfalt der Artikel liegt, die geographisch von Japan bis Südamerika und zeitlich aus vorhistorischer Zeit bis in die Gegenwart reichen. Einige Beispiele dieser Probleme werde ich während meines Inputs kurz darstellen.

Als „Lab“ Idee hat sich außerdem die Idee ergeben, Artikel nicht nur auf der Dokument-, sondern auch auf der Absatz- oder Artikelebene zu taggen. Die Absätze/Kapitel sollen dann ebenfalls mit korrespondierenden Absätzen/Kapiteln anderer Artikel (und eventuell sogar externen Ressourcen) verlinkt werden. Hier stehen wir jedoch noch ganz am Anfang unserer Überlegungen, und ich erhoffe mir von der Teilnahme an dem Workshop, neue Ideen sowie ein allgemeines Feedback zu diesem Vorhaben zu erhalten. Besonders interessiert mich, ob sich ein solches Tagging von Absätzen/Kapiteln durch existierende Softwarelösungen umsetzen oder zumindest unterstützen ließe bzw. welche Erfahrungen es in diesem Bereich gibt. In diesem Kontext möchte ich ein kurzes Beispiel unserer Grundidee und den bereits in der Konzeptualisierungsphase auftretenden Problemen darstellen. Zusammenfassend hoffe ich, dass mein Beitrag eine kontrastierende Perspektive auf das Thema Annotationen und deren technische Lösung bzw. Umsetzung werfen kann, da es sich im Unterschied zur Annotation im Kontext „klassischer“ Forschungsfragen einem anders gearteten Bereich widmet, nämlich dem des Wissenstransfers bzw. noch allgemeiner der Informationsvermittlung und Aufbereitung. Es geht bei unserem Vorhaben erst in einem zweiten Schritt darum, aus den Annotationen Erkenntnisse zu gewinnen. Das Hauptaugenmerk liegt darauf, der Leserschaft von Entangled Religions mit Hilfe von Annotationen einen Überblick über wichtige Themen und Angebote für ein further reading zu präsentieren, was mit einem stärkeren Fokus auf der Visualisierung und auch der Nutzerfreundlichkeit einhergeht, was – je weiter der Prozess fortschreitet – leider alles andere als trivial ist.