Projekte

[in Arbeit: 2020-08-17]

2020-2022 forTEXT – Forschungsumgebung zur kollaborativen Texterschließung

Prof. Dr. Evelyn Gius

Förderung: Deutsche Forschungsgemeinschaft (DFG)

2020-2024 INF: Bücher auf Reisen. Informationstechnologische Erschließung von Wissensbewegungen in vormodernen Kulturen. Teilprojekt des SFB 980 Episteme in Bewegung

Prof. Dr. Gyburg Uhlmann (FU Berlin), Prof. Dr. Andrea Rapp, Dr. Danah Tonne (KIT), Dr. Alfred Geukes (FU Berlin)

Förderung: Deutsche Forschungsgemeinschaft (DFG)

Das Teilprojekt entwickelt informationstechnologische Verfahren zur Datenerschließung für die Untersuchung und Visualisierung von Wissensbewegungen in langfristig tradierten vormodernen Wissensbeständen am Beispiel von Reisen von Handschriften, Drucken sowie Sarg- und Pyramiden­textsprüchen. Basierend auf einem Forschungsdatenrepositorium werden (1) neue Werk­zeuge zur Datenanalyse, (2) spezifische Vokabulardienste und (3) innovative Präsentations­schichten entwickelt. Mit der Zusammenarbeit an drei Standorten (Berlin, Karlsruhe, Darmstadt) hat das Projekt Pilot­funktion im Hinblick auf die Etablierung komplexer institutioneller Kooperationen im Bereich Forschungsdatenmanagement.

2020-2023 »Evaluating Events in Narrative Theory« (EvENT)

Prof. Dr. Evelyn Gius, Prof. Dr. Chris Biemann (Universität Hamburg)

Förderung: DFG-Schwerpunktprogramm 2207 „Computational Literary Studies

Im Projekt wird ein interdisziplinärer Ansatz zur Formalisierung und Ana-lyse von Ereignissen in literarischen Erzähltexten verfolgt, der Methoden des Natural Language Processing und Konzepte der Literaturwissenschaft kombiniert. Es werden Ereigniskonzepte in beiden Disziplinen theoretisch erforscht und anschließend modelliert. Die narratologischen Konzepte von Ereignissen, Ereignishaftigkeit und narrativer Konstituierung dienen dabei als Basis für einen Zugang für die Klassifikation von Erzählungen anhand von Ereignistypen oder -mustern. So soll schließlich ein Verfahren für die automatische Analyse von narrativen Texten etabliert werden, das für die literarische Textanalyse – und darüber hinaus – genutzt werden kann.

2020 Maschinelle Konformitätsprüfung: Entwicklung eines Annotationsschemas zur Identifizierung semantischer Unsicherheit in Normtexten. Pauschalmittelprojekt des SFB 805.

Prof. Dr. Andrea Rapp, Dr. Sabine Bartsch, Dr. Jörn Stegmeier, Prof. Dr.-Ing. Peter Pelz

Der SFB 805 hat es sich zum Ziel gemacht, Unsicherheit in lasttragenden aktiven, d.h. mechatronischen, Systemen zu beschreiben, zu bewerten und zu beherrschen. Die Unsicherheit soll bereits in der Produktentwicklungsphase antizipiert werden. Normen dienen in der Produktentwicklung als Rahmenbedingung für zu entwickelnde Produkte. Allerdings bringen Normen bereits durch unscharfe Formulierungen und den hohen Grad an (fach)sprachlicher und textueller Komplexität eine neue Form von Unsicherheit in den Entwicklungsprozess ein. Aufgrund der großen Bedeutung von Normen für die Industrie soll daher im Rahmen dieses Pauschalmittelprojekts für das Erkennen und Quantifizieren dieser semantischen Unsicherheit in Zusammenarbeit mit dem Institut für Sprach- und Literaturwissenschaft eine Methode entwickelt und validiert werden.

2019-2022 Relating the Unread. Network Models in Literary History

Prof. Dr. Thomas Weitin, Ulrik Brandes (ETH Zürich)

Förderung: DFG-Schwerpunktprogramm 2207 „Computational Literary Studies“ (2019-2022), Swiss National Science Foundation.

In den letzten 15 Jahren hat die Literaturwissenschaft enorm von den neuen Methoden der Digital Humanities profitiert. Diese Entwicklung bringt allerdings auch Skepsis mit sich, welche sich besonders auf dem scheinbaren Gegensatz von kritischer Reflexion und statistischer Analyse bezieht. Entgegen diesen Bedenken ist aber die Entwicklung der digitalen Literaturwissenschaft äußerst produktiv, da ihre Anwendung Ergebnisse schafft, die nicht nur bereits bestehende Hypothesen unterstützen, sondern neue Erkenntnisse über unsere Arbeit und unsere Fragen ermöglichen. Wir wollen durch die Entwicklung netzwerkbasierter Analysemethoden dazu beitragen, Aussagen über umfangreiche unsichtbare, also dekanonisierte, Literaturen (Franco Morettis „great unread“) zu ermöglichen. Hierzu wird ein Korpus aus deutsch- und englischsprachiger Literatur des 18. Jahrhunderts und der Goethezeit im Speziellen untersucht. Die mehr als 400 ausgewählten Romane und Erzählungen liegen in digitalisierter Form vor und stehen exemplarisch für die großen Textmassen die sich den einzelnen Leserinnen und Leser entziehen und schließlich vergessen werden. Das wesentliche Forschungsinteresse besteht an der automatisierten Abgrenzung von Texten sowie der wechselnden Bedeutung einzelner Texte in Textsammlungen, die nach verschiedenen Kriterien ausgewählt werden. Insbesondere sind wir am Einfluss der Zusammenstellung literaturwissenschaftlicher Korpora auf die Positionen weiblicher Autorinnen interessiert. Dazu sollen geeignete Merkmale identifiziert und Gruppierungsmethoden entwickelt werden, die Netzwerkrepräsentationen verwenden und dabei über den Vergleich von Häufigkeiten und gemeinsamem Auftreten von Wörtern hinaus gehen. So sollen Netzwerkmodelle verschiedener Datentypen (z.B. stilometrischer oder semantischer Daten) entwickelt werden, welche die Literaturgeschichte anhand von Gruppierungsprozessen nachvollzieht.

2019-2021 „Eine Darmstädter Zeitung in drei Jahrhunderten“ – Digitalisierung des Darmstädter Tagblatts (1740 – 1986)

Prof. Dr. Marcus Müller, Prof. Dr. Thomas Stäcker (ULB Darmstadt)

Förderung: Deutsche Forschungsgemeinschaft (DFG)

Das 1986 eingestellte Darmstädter Tagblatt war eines der ältesten Periodika und die am längsten kontinuierlich herausgegebene Tageszeitung im deutschen Sprachraum und fungierte als wichtigstes Leitmedium in Darmstadt und der Region Südhessen. Dieses soll – in einer ersten Antragsphase bis 1941 – digitalisiert und zum Teil linguistisch aufbereitet werden.

Die Digitalisierung umfasst die Imagedigitalisierung mit Strukturdatenerfassung, die OCR-Volltextgenerierung, die (semi-)manuelle Artikelseparierung ausgewählter Sequenzen, die automatische Personen- und Ortsnamenidentifikation und, wo möglich, Zuordnung zu Normdaten sowie die automatische Wortarten-Annotation. Als erster Anwendungsfall wird in einem Team unter der Leitung von Prof. Müller auf dem segmentierten, OCR-behandelten, bereinigten und linguistisch annotierten Teil der Daten eine diskurslinguistische Studie zum Wandel des öffentlichen Risikokonzeptes 1850-1915 am Beispiel des Darmstädter Tagblatts durchgeführt.

Auf der technischen Basis einer Weiterentwicklung des kollaborativen Annotationstools WebAnno wird das auch Möglichkeiten des crowd sourcing nutzen, um nicht nur weitere Textverbesserungen zu erzielen, sondern auch die Beitragenden zu sachlichen Annotationen zu motivieren. Eine Schlüsselrolle in der Suche kommt erfahrungsgemäß Entitäten wie Personen- und Ortsnamen, aber auch der Kodierung grammatischer Strukturen zu. Ziel ist es, ein sowohl im Umfang, als auch Qualität hochwertiges Korpus zu erarbeiten. Dabei soll in der Zusammenarbeit von Bibliothek und Institut prototypisch eine kollaborative Struktur entstehen, die spezifisch fachwissenschaftliche und fächerübergreifende Interessen produktiv in sich vereint.

2019-2021 CLARIAH-DE

Berlin-Brandenburgische Akademie der Wissenschaften, Eberhard Karls Universität Tübingen (Verbundkoordination), Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen, Hamburger Zentrum für Sprachkorpora, Institut für Deutsche Sprache Mannheim, Otto-Friedrich-Universität Bamberg / Fakultät für Wirtschaftsinformatik und Angewandte Informatik, Niedersächsische Staats- und Universitätsbibliothek Göttingen (Verbundkoordination), Prof. Dr. Andrea Rapp / Technische Universität Darmstadt / Institut für Sprach- und Literaturwissenschaft, Universität Leipzig, Julius-Maximilians-Universität Würzburg / Institut für deutsche Philologie / Lehrstuhl für Computerphilologie und Neuere Deutsche Literaturgeschichte
Förderung: Bundesministerium für Bildung und Forschung

Die beiden etablierten geisteswissenschaftlichen Forschungsinfrastrukturen CLARIN-D und DARIAH-DE haben sich zusammengeschlossen, um zu einer gemeinsamen Forschungsdateninfrastruktur für die Geisteswissenschaften in Deutschland beizutragen.

Die in den letzten Jahren erfolgreich eingeleitete Zusammenarbeit soll während der Projektlaufzeit so weit vorangetrieben werden, dass ab 2021 eine nationale Forschungsdateninfrastruktur für die Geisteswissenschaften angeboten werden kann, die aus gemeinsamen, technischen Komponenten und abgestimmten Verfahren besteht.

2018 – heute Digitale Edition ausgewählter Briefwechsel der Brüder Grimm

Dr. Sabine Bartsch, Mareike Bassenge, Dr. Luise Borek, Dr. Rotraut Fischer (Projektleitung), Prof. Dr. Andrea Rapp, Dario Kampkaspar, Prof. Dr. Thomas Stäcker

Ziel des Projekts ist die Herausgabe der Briefwechsel Johann Heinrich Christian Bangs mit Jacob und Wilhelm Grimm bzw. Friedrich Carl von Savigny, zentralen Protagonisten eines Kreises von Dichter*innen, Denker*innen, akademischen Lehrern und Studenten, die sich um 1800 in Marburg zusammenfanden, und dessen Zentrum der Jurist und Begründer der Historischen Rechtsschule, Lehrer und Freund der Brüder Grimm, Friedrich Carl von Savigny, war. Diese Konstellation von Menschen und Ideen stand einerseits in Verbindung mit dem frühromantischen und kantkritischen Jena, andererseits beeinflusste sie das bedeutende Werk der daran Beteiligten, so das der Brüder Grimm und Savignys, aber auch das der Brentanos.

2017-2020 Reading at Scale: Mixed Methods in der literaturwissenschaftlichen Korpusanalyse

Prof. Dr. Thomas Weitin, Ulrik Brandes (ETH Zürich)
Förderung: VolkswagenStiftung

Das Projekt ‚Reading at Scale‘ beruht auf folgendem Ansatz: Wenn hermeneutische und statistische Methoden ihre je eigenen Stärken in der detaillierten Einzelanalyse und im Umgang mit großen Datenmengen haben, ist ein Mixed Methods-Ansatz besser für die mittlere Ebene geeignet als die beiden Methoden allein. Literarische Texte und Textkorpora ermöglichen Analysen in unterschiedlichen Auflösungsstufen von der Zeichenebene im einzelnen Werk bis hin zu ganzen Literaturen, wobei Literaturwissenschaft und Literaturgeschichte traditionell viele Forschungsfragen auf der mittleren Ebene untersuchen. Im Fokus unserer Studien steht eine historische Sammlung von 86 Novellen, die unter dem Titel „Der deutsche Novellenschatz“ (24 Bände, 1871-1876) von den Herausgebern Paul Heyse und Hermann Kurz veröffentlicht wurde. Wir haben diese realismusorientierte Anthologie bereits als TEI/XML Korpus aufbereitet, weitere solche Sammlungen werden folgen. Dank ihrer mittleren Größe liegt die Novellensammlung noch in der Reichweite individueller Lektüre und hat doch schon eine für statistische Analysen vielversprechende Größe. Unser Textkorpus wird von zwei Dissertationen auf unterschiedlichen Operationalisierungsstufen untersucht: (1) eine Netzwerkanalyse beschäftigt sich mit Problemen der Distinktion innerhalb populärer Literatur; (2) eine vergleichende Studie untersucht den „Deutschen Novellenschatz“ als ein wirkungsvolles Instrument der Kanonisierung und als programmatischen Versuch einer nicht-narrativen Literaturgeschichte. Die beiden Projektleiter integrieren die Einzelstudien aus der Perspektive methodologischer Grundlagenforschung: Ein algorithmisches Subprojekt eruiert Konzepte der Position in der Netzwerkforschung, ein literaturwissenschaftliches Subprojekt konzentriert sich auf Probleme der Validierung bei digitalen Analysen.

2017-2020 Humanist Computer Interaction auf dem Prüfstand (Humanist)

Prof. Dr. Marietta Horster (Verbundkoordination, Johannes Gutenberg-Universität Mainz), Prof. Dr. Andrea Rapp, Prof. Dr. Sven Pagel (Hochschule Mainz)
Förderung: Bundesministerium für Bildung und Forschung

Innovationsziel des Projekts aus der BMBF-Fördermaßnahme Validierung des technologischen und gesellschaftlichen Innovationspotenzials wissenschaftlicher Forschung – VIP+ ist die Analyse und Validierung der Potentiale von geisteswissenschaftlichen Nutzungsformen virtueller Forschungsumgebungen. Mittels einer Prozessanalyse der gemeinsamen Bearbeitung eines geisteswissenschaftlichen Forschungsfeldes mit digitalen Forschungsapplikationen sollen neuartige Anwendungsformen und Kollaborationsmodelle identifiziert und deren Weiterentwicklung in Gang gesetzt werden. Dazu werden 19 internationale Forschungsgruppen an die verschiedenen digitalen Werkzeuge und Inhalte herangeführt und ihre konkreten Nutzungspraktiken und Forschungsprozesse innerhalb der virtuellen Forschungsumgebung untersucht. Aus den Ergebnissen der Untersuchung sollen schließlich Referenzmodelle für die Implementierung und Gestaltung von virtuellen wissenschaftlichen Forschungsprojekten sowie Best Practice Empfehlungen für die strukturelle und prozessuale Verknüpfung von technischen, methodologischen und inhaltsbezogenen Arbeitsebenen abgeleitet werden.

2016-2020 Digitalität in den Fachdidaktiken

Projektleitung: Prof. Dr. Andrea Rapp, Prof. Dr. Gerrit Schenk, Dr. Michael Bender
Förderung: TU Darmstadt, zentrale QSL-Mittel

Digitale Methoden und Inhalte können sowohl Mittel als auch Gegenstände der Didaktik sein. Die in den Digital Humanities (DH) etablierten vielfältigen, weitreichenden und tiefgreifenden Praktiken des digital gestützten Forschens und wissenschaftlichen Arbeitens werden jedoch durch die Konzepte der Mediendidaktik und des E-Learning allein nicht mehr abgedeckt. Das Projekt hat sich daher zum Ziel gesetzt, neue Konzepte zur Digitalität in den Fachdidaktiken zu entwickeln und zu erproben. Die Projektergebnisse werden sowohl in einem online-Handbuch dokumentiert als auch in einem konkreten Modul „Digitalität als Praxis in den Geisteswissenschaften“ verankert, das in allen Lehramtsstudiengängen und darüber hinaus angeboten werden soll.

2016 – 2018 GP01 Handschriften in Bewegung: Werkzeuge zur Dokumentation, Auswertung und Visualisierung texttopographischer Dynamiken. Teilprojekt des SFB 980 Episteme in Bewegung

Prof. Dr. Andrea Rapp, Dr. Rainer Stotzka (KIT)
Förderung: Deutsche Forschungsgemeinschaft (DFG)

Im Gastprojekt werden Verfahren und Software zur automatischen Vermessung, zur Dokumentation und zur visuellen Analyse von Gestaltungsmerkmalen auf Handschriften- bzw. Buchseiten (weiter-)entwickelt. Gemeinsam mit ausgewählten Teilprojekten werden Eigenschaften von (Einheiten in) Büchern identifiziert, die für die Analyse von Bewegungen und ihrer Modi, d.h. Transfers und damit De- und Rekontextualisierungen von Wissensbeständen in Büchern und Corpora relevant und im Rahmen der Bildprozessierung automatisierbar sind. Die Ergebnisse werden nahtlos in die Dateninfrastruktur des SFB 980 integriert.

2015 – heute Deutschsprachiges Liebesbriefarchiv

Prof. Dr. Eva Wyss (Universität Koblenz-Landau), Prof. Dr. Andrea Rapp, Dr. Canan Hastik, Dr. Ralf Grunder (UB Koblenz), Prof. Dr. Thomas Stäcker, Dario Kamkaspar, Prof. Dr. Stefan Schmunk (Hochschule Darmstadt)

Liebesbriefe (oder auch Paar- udn Familienbriefe) bieten eine einzigartige Quelle einer empirischen ‚Sprachgeschichte von unten‘. Unser Liebesbriefarchiv verfügt heute über mehr als 18.000 mit Metadaten erschlossene Briefe, die (anonymisiert) über die Website des Archivs einsehbar sind. Bisher wurden von insgesamt 18.064 Briefen (Stand 4/2020) 14.476 Briefe bestehend aus 39.659 Briefeinzelseiten zuzüglich 10.039 bildhafte Begleitmaterialien (Fotos, Urkunden, Zeitungsausschnitte u. a.) aus 665 Konvoluten gescannt, zusätzlich werden über 2.500 Briefe aktuell eingepflegt. Im Rahmen von Forschungsarbeiten und Seminaren und wurden bis heute ca. 1.800 Briefe transkribiert. Jährlich wird mit etwa 20 Konvoluten als Neuzugänge gerechnet. Im Rahmen des Projekts sind bereits zahlreiche wissenschaftliche Publikationen und Qualifikationsarbeiten entstanden.

2015 – heute Literaturwissenschaftliche Korpora

Prof. Dr. Thomas Weitin

Nachhaltige und qualitativ hochwertige digitale Anwendungen und Operationalisierungen von (literaturwissenschaftlichen) Fragestellungen beruhen notwendigerweise auf geeignete und stabilen Korpora. Viele kanonisierte Klassiker und Werke sind mittlerweile frei im Internet verfügbar und können auf Webseiten wie etwa dem Projekt Gutenberg DE frei heruntergeladen werden. Aus editionsphilologischer und korpuskritischer Perspektive sind diese digitalen Texte allerdings häufig unzuverlässig: Manchmal sind die zugrundeliegenden Textquelle und Editionen nicht gekennzeichnet, die Dateien sind oft nur im einfachen txt-Format verfügbar, ohne Formatierungen oder tiefergehende Textauszeichnungen. Die Fehlerquoten der verwendeten OCR-Reader (gemeint sind hier Programme zur optical character recognition, die beispielsweise aus PDF-Dateien maschinenlesbaren Text) variierten stark, was wiederum die Qualität der Korpora stark beeinflusst. Initiativen wie das Deutsche Textarchiv stellen sich diesem Trend entgegen, indem hier ein historisches Referenzkorpus nach strengen Richtlinien und hohen Qualitätsstandards (u.a. durch die Prämisse der Erstausgabenverwendung) anstreben.
Zugleich vertritt die digitale Literaturwissenschaft auch den Anspruch, sich in Ihren Analysen und Forschungsgegenständen von dem traditionalen Kanon der Literatur zu lösen bzw. diesen zu erweitern. Die stetige Erstellung und Erweiterung literarischer Korpora ist entsprechend häufig ein signifikanter Aspekt vieler Forschungsprojekte.

Der Korpus-Workflow am Beispiel des Neuen Novellenschatzes
Im Juni 2015 wurde im Vorbereitung zu der Arbeitstagung „Scalable Reading. Paul Heyses Deutscher Novellenschatz zwischen Einzeltext und Makroanalyse“ das erste, unter der Leitung von Thomas Weitin erstellte TEI-XML-Korpus des Deutschen Novellenschatz, einer historischen Sammlung von 86 Novellen, veröffentlicht von Paul Heyse und Hermann Kurz (24 Bände, 1871-1876), eigenständig erstellt. Dieses Korpus wurde kontinuierlich verbessert und mit Metadaten angereichert, um die Forschung zu der populären Novellensammlung des 19. Jahrhunderts voranzutreiben.
Der mittlerweile etablierte Korpus-Workflow wurde seither kontinuierlich erweitert und professionalisiert. Die Korpora werden mittels eines corrected OCR-Verfahrens erstellt:
Die digitalen Repräsentation des Textes (in der Regel PDF-Formate) werden in einem ersten Schritt mittels Abbyy FineReader-Software, die sich besonders gut zur Erkennung von Frakturschrift eignet, in maschinenlesbaren Text umgewandelt. Daraufhin wird der erkannte Text von spezifisch geschulten Hilfskräften in einem zweiten Schritt manuell kontrolliert und korrigiert und im txt-Format gespeichert, einige Korpora werden zudem in ein TEI-konformes XML-Schema übertragen.

Weitere Korpusprojekte
Neben dem Deutschen Novellenschatz wurde mittlerweile auch der Neue Deutschen Novellenschatz von Paul Heyse und Ludwig Laistner (70 Novellen in 24 Bänden, 1884-1887) digitalisiert und aufbereitet. Außerdem begannen wir mit den Korpusvorbereitungen für den letzten fehlenden Novellenschatz, den Novellenschatz des Auslandes mit 57 übersetzten Novellen, ebenfalls erschienen bei Paul Heyse und Hermann Kurz (14 Bände, 1872-1876). Somit ist unser literarisches Novellenkorpus fast vollständig und bereit für die Analyse. Parallel zu diesem werden auch andere historische Quellen aufbereitet und digitalisiert, etwa die umfangreiche Briefkorrespondenz zwischen Paul Heyse und Hermann Kurz (1858-1873, über 700 Briefe), die während des Publikationsprozesses der Novellenschatz-Sammlung entstand.
Mit Der neue Pitaval digitalisieren wir zudem „eine Sammlung der interessantesten Kriminalgeschichten aller Länder aus älterer und neuerer Zeit“, die von Julius Eduard Hitzig und Willibald Alexis (Wilhelm Häring) herausgegeben wurde (60 Bände, 1842-1890).
Die entstehenden digitalen Korpora werden im Sinne von Open Access im deutschen Textarchiv veröffentlicht und so zur freien Forschung bereitgestellt.

Projektpublikationen

Weitin, Thomas (2016). Volldigitalisiertes Textkorpus. Der Deutsche Novellenschatz. Herausgegeben von Paul Heyse, Hermann Kurz. 24 Bände, 1871-1876. Darmstadt/Konstanz. Weitin, Thomas (2018). Volldigitalisiertes Textkorpus. Der Neue Deutsche Novellenschatz. Herausgegeben von Paul Heyse, Ludwig Laistner. 24 Bände, 1884-1887. Darmstadt (im Erscheinen).

Weitere Links

Deutsches Textarchiv. Grundlage für ein Referenzkorpus der neuhochdeutschen Sprache. Herausgegeben von der Berlin-Brandenburgischen Akademie der Wissenschaften, Berlin 2019. Project Gutenberg. Herausgegeben von der Project Gutenberg Literary Archive Foundation. Projekt Gutenberg-DE. Herausgegeben von der Hille & Partner GbR.

2015-2016 GSCL Shared Task: Automatic Linguistic Annotation of Computer-Mediated Communication / Social Media

Prof. Dr. Michael Beißwenger (Universität Duisburg-Essen), Dr. Sabine Bartsch, Prof. Dr. Stefan Evert (FAU Erlangen), Kay-Michael Würzner (BBAW)

Ziel des gemeinsamen Forschungsprojekts ist es, die Entwickler von NLP-Anwendungen zu ermutigen, ihre Tools und Ressourcen für die Bearbeitung schriftlich geführter Diskurse (in deutscher Sprache) in Bereichen der computergestützten Kommunikation (computer-mediated communication, CMC) anzupassen. Beispiele für CMC-Bereiche sind Chats, Foren, Wiki-Diskussionsseiten, Tweets, Blog-Kommentare, soziale Netzwerke, SMS- und WhatsApp-Dialoge.

In diversen Forschungsgebieten und Anwendungskontexten in den Digital Humanities ist die Bearbeitung von CMC-Diskursen als Desiderat und als relevante Aufgabe anzusehen:

  • im Rahmen der Erstellung, Verarbeitung und Analyse von Korpora der computervermittelten Kommunikation / Social Media (Chat-Korpora, News-Korpora, WhatsApp-Korpora, …),
  • im Rahmen der Sammlung, Verarbeitung und Analyse umfangreicher und genre-heterogener Web-Korpora als Ressourcen im Bereich der Sprachtechnologie / Data Mining,
  • im Kontext des Umgangs mit CMC-Daten in korpusbasierten Analysen zu zeitgenössischer Schriftsprache, Sprachvariation und Sprachwandel
  • in allen Forschungsbereichen außerhalb der Linguistik, in denen soziale, kulturelle und pädagogische Aspekte von Social Media und CMC-Technologien unter Verwendung von Sprachdaten aus verschiedenen CMC-Bereichen behandelt werden.

Die gemeinsame Aufgabe bestand aus zwei Unteraufgaben:

  • Tokenisierung von CMC-Diskursen
  • „Part-of-Speech“-Annotation von CMC-Diskursen

Die beiden Unteraufgaben verwendeten zwei unterschiedliche Datensätze:

  • CMC-Datensatz: Eine Auswahl von Daten aus verschiedenen CMC-Bereichen (sozialer Chat, professioneller Chat, Wikipedia-Diskussionsseiten, Blog-Kommentare, Tweets, WhatsApp-Dialoge).
  • Webkorpora-Datensatz: Eine Auswahl von Daten, die den schriftlichen Diskurs aus heterogenen WWW-Genres abbilden – bestehend aus gecrawlten Websites, einschließlich kleinerer Teile des CMC-Diskurses (z. B. Webseiten, Blogs, Nachrichtenseiten, Blogkommentare usw.).

Mehr erfahren –> https://sites.google.com/site/empirist2015/

2015-2038 Altägyptische Kursivschriften: Digitale Paläographie und systematische Analyse des Hieratischen und der Kursivhieroglyphen

Prof. Dr. Ursula Verhoeven-van Elsbergen (Projektleitung, Johannes Gutenberg-Universität Mainz), Prof. Dr. Andrea Rapp
Förderung: Union der Deutschen Akademien der Wissenschaften, Projekt der Akademie der Wissenschaften und der Literatur | Mainz

Die kursiven Handschriften stellen im Gegensatz zu den vorwiegend gemeißelten Hieroglyphen die eigentliche Schrift des Alten Ägypten dar, die mit Binsenstengeln und schwarz-roter Tusche auf Papyrus, Leinen, Leder, Holz, Keramik, Putz oder Stein geschrieben wurde. Die hieratische Schrift wurde 3.000 Jahre lang für die verschiedenen Sprachstufen Ägyptens verwendet und erst in der Mitte des 1. Jahrtausends v. Chr. in einigen Bereichen von der demotischen Kursivschrift verdrängt. Die sogenannten Kursivhieroglyphen sind eine handschriftliche, formnahe Umsetzung von Einzelhieroglyphen. Die Erforschung beider Schriftarten und ihres Verhältnisses zu den Hieroglyphen und zum Demotischen ist immer noch ein Desiderat der Ägyptologie und Handschriftenkunde. Ziele des Akademievorhabens sind zum einen die Erstellung einer digitalen Paläographie, die das Zeichenrepertoire für vielfältige Suchmöglichkeiten sowie für die Kooperation mit der internationalen Fachwelt bewahrt und online präsentiert und daneben umfangreiche Metadaten zu allen relevanten Quellen bietet. Teil- oder Spezialpaläographien werden sukzessive auch als Downloaddateien oder Buchpublikationen zur Verfügung gestellt. Zum anderen erfolgt eine systematische Erforschung der Kursivschriften mit Blick auf Entstehung und Entwicklung, Funktionsbereiche, Regionalität und Datierbarkeit. Weitere Fragestellungen beziehen sich beispielsweise auf die Ökonomie und Materialität des Schreibens, das Layout von Manuskripten oder die Identifikation von individuellen Schreiberhänden. Während Module zur Informationstechnik das Vorhaben im Bereich der Digital Humanities verankern, werden Praktika zum Schreiben und Faksimilieren von Hieratisch sowie zur Didaktik Eingang in die ägyptologischen Studiengänge finden.

2015-2018 MASI – Metadata Management for Applied Sciences

TU Dresden – ZIH (Verbundkoordination), KIT – Institut für Prozessdatenverarbeitung und Elektronik, Leibniz-Institut für ökologische Raumentwicklung – Monitoring der Siedlungs- und Freiraumentwicklung, RWTH Aachen – Fachgruppe Chemie, Akademie der Wissenschaften und der | Literatur Mainz – Digitale Akademie, Prof. Dr. Andrea Rapp
Förderung: Deutsche Forschungsgemeinschaft (DFG)

In diesem Projekt soll ein generisches Metadatenmanagement für wissenschaftliche Daten etabliert werden, basierend auf einer anwendungsorientierten Metadatenbeschreibung. Die Umsetzung erfolgt begleitend durch Anwender unterschiedlicher und heterogener Anwendungsgebiete. Darmstadt und Mainz betreuen gemeinsam den geisteswissenschaftlichen Use Case.

2015 Internationale Tagung Key ideas & concepts of Digital Humanities

Projektleitung: Prof. Dr. Andrea Rapp, Michael Sperberg-McQueen, PhD, Dr. Sabine Bartsch, Dr. Michael Bender

Förderung: Deutsche Forschungsgemeinschaft (DFG)

2013-2016 ePoetics – Korpuserschließung und Visualisierung deutschsprachiger Poetiken (1770 – 1960) für den „Algorithic Criticism“

Prof. Dr. Sandra Richter (Verbundkoordination, Universität Stuttgart), Prof. Dr. Thomas Ertl (Universität Stuttgart), Prof. Dr. Jonas Kuhn (Universität Stuttgart), Prof. Dr. Andrea Rapp
Förderung: Bundesministerium für Bildung und Forschung

ePoetics zielt auf eine Weiterentwicklung der eHumanities durch die Erprobung aktueller informationstechnologischer Methoden an einem für die Geisteswissenschaften zentralen Textbestand, Poetiken und Ästhetiken von 1770 bis 1960. Die TU Darmstadt hat als Projektpartner insbesondere zum Ziel, im Zuge des digitalen Aufbaus dieses besonderen Korpus Mehrwerte bzw. neue Erkenntnisse im Bereich der Erschließungsverfahren und Metadaten-Strukturen zu gewinnen – auch in Wechselwirkung mit der sprachtechnologischen Analyse/Verarbeitung und den projektierten Visualisierung-Verfahren. Außerdem ist beabsichtigt, durch die offene Gestaltung des Korpus und die Publikation bzw. Einbindung in virtuellen Forschungsumgebungen und –infrastrukturen zu bewirken, dass der Textbestand erweitert und die Science Community in die Forschungsarbeit an und mit den Texten und Metadaten einbezogen werden kann, wodurch wiederum neue wissenschaftliche Ergebnisse erzielt werden können.

Das ePoetics-Korpus ist publiziert im TextGrid Repository und im Deutschen Textarchiv DTA.

2013-2016 eCodicology – Algorithmen zum automatischen Tagging mittelalterlicher Handschriften

Prof. Dr. Andrea Rapp (Verbundkoordination), Dr. Rainer Stotzka (KIT), Prof. Dr. Claudine Moulin (Universität Trier), Prof. Dr. Michael Embach (Stadtbibliothek und Stadtarchiv Trier)
Förderung: Bundesministerium für Bildung und Forschung

Das Projekt nutzt den Pool von etwa 500 mittelalterlichen Handschriften aus der Benediktinerabtei St. Matthias in Trier. Ziel ist die Entwicklung, Erprobung und Optimierung von neuen Algorithmen, die Makro- und Mikro-Strukturelemente einer Manuskriptseite automatisch erkennen und diese Informationen in die Metadaten zu jedem Image einpflegen. Beispiele sind (metrische) Daten wie Seitenformat, die Anzahl der Zeilen, Beschriftungen, Register, Paratexte, Marginalien, das Verhältnis von Bild und Text und viele mehr. Ferner werden Verfahren zur statistischen Auswertung dieser Metadaten entwickelt und erprobt.

2012-2036 Digitales Familiennamenwörterbuch Deutschlands (DFD)

Prof. Dr. Damaris Nübling (Projektleitung, Johannes Gutenberg-Universität Mainz), Prof. Dr. Nina Janich (Projektleitung), Prof. Dr. Andrea Rapp (Leitung der Arbeitsstelle an der TU Darmstadt)
Förderung: Union der Deutschen Akademien der Wissenschaften, Projekt der Akademie der Wissenschaften und der Literatur | Mainz

Im Rahmen des Projekts werden die häufigsten (deutsch- und fremdsprachigen) Familiennamen in Deutschland sprachhistorisch gedeutet, erklärt und kartiert und kontinuierlich in einem digitalen Namenwörterbuch veröffentlicht. Das Namenwörterbuch enthält außerdem namenkundliche Informationen und steht auf der folgenden Webseite der interessierten Öffentlichkeit zur Verfügung.

2011-2019 DARIAH-DE: Aufbau von Forschungsinfrastrukturen für die e-Humanities

Akademie der Wissenschaften und der Literatur | Mainz, Berlin-Brandenburgische Akademie der Wissenschaften, Daasi International, Deutsches Archäologisches Institut, Prof. Dr. Petra Gehring, Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen, Prof. Dr. Iryna Gurevych, Herzog August Bibliothek Wolfenbüttel, Herder-Institut für historische Ostmitteleuropaforschung, Institut für Europäische Geschichte Mainz, arlsruher Institut für Technologie KIT, Max Weber Stiftung, Otto-Friedrich-Universität Bamberg, Prof. Dr. Andrea Rapp, Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte an der Universität Duisburg-Essen, SUB Göttingen, Universität Trier, Julius-Maximilians-Universität Würzburg
Förderung: Bundesministerium für Bildung und Forschung

DARIAH-DE ist ein Forschungsinfrastruktur-Projekt der ESFRI-Roadmap, das unter dem europäischen Dach DARIAH-EU die Nutzung digitaler Methoden in den Geisteswissenschaften unterstützten und erweitern soll. Gemeinsam mit erfolgreichen Initiativen im Bereich der Digital Humanities in Deutschland

• unterstützt DARIAH-DE den Aufbau Virtueller Forschungsumgebungen in den Geisteswissenschaften durch Beratung, Verknüpfung von bisher getrennten Aktivitäten und auch durch technische Infrastruktur.

• nutzt und verknüpft DARIAH-DE vorhandene digitale Ressourcen, Dienste und Erkenntnisse auch übergreifend über einzelne Disziplinen und bestimmte Forschungsfragen.

• errichtet und erforscht DARIAH-DE eine dezentrale technische Infrastruktur, auf der geisteswissenschaftliche Methoden implementiert und genutzt werden können.

Dieses Ziel beinhaltet nicht nur technische Aufgaben, sondern betrifft ebenso lokale wie internationale Aktivitäten, und ist vor allem langfristig ausgelegt.

Der Beginn der Betriebskooperation ab März 2019 markiert eine neue Phase in der Entwicklung von DARIAH-DE. 16 Partnerinstitutionen haben durch den Abschluss einer Betriebskooperationsvereinbarung den Grundstein für den nachhaltigen Betrieb und somit für die Verstetigung von DARIAH-DE gelegt.

2011-2013 LOEWE-Schwerpunkt Digital Humanities – Projektbereich „Gegenwartssprachliche Corpora“

Dr. Sabine Bartsch, Prof. Dr. Iryna Gurevich, Prof. Dr. Gert Webelhuth (Goethe-Universität Frankfurt a.M.)
Förderung: Exzellenzinitiative des Landes Hessen, LOEWE.

Der LOEWE-Schwerpunkt Digital Humanities ist eine Kollaboration der Universität Frankfurt, der Technischen Universität Darmstadt und des Freien Deutsches Hochstifts / Frankfurter Goethe Museum. Zielsetzung: die Grundlagenforschung in den beteiligten geisteswissenschaftlichen Disziplinen im Hinblick auf informationstechnologische Verfahrensweisen miteinander zu vernetzen.

Integrierte Aufbereitung und Auswertung textbasierter Corpora.

2010-2014 Virtuelles Skriptorium St. Matthias

Prof. Dr. Claudine Moulin (Univeristät Trier), Prof. Dr. Michael Embach (Stadtbibliothek und Stadtarchiv Trier), Prof. Dr. Andrea Rapp
Förderung: Deutsche Forschungsgemeinschaft (DFG)

Das Digitalisierungsprojekt „Virtuelles Skriptorium St. Matthias“ präsentiert den noch erhaltenen Bestand an Handschriften der mittelalterlichen Bibliothek der Benediktinerabtei St. Matthias in Trier. Dieser beläuft sich auf ungefähr 500 Kodizes, die weltweit auf 25 Standorte verteilt sind. Der überwiegende Teil von ungefähr 450 Handschriften befindet sich noch heute in Trier. Neben der Stadtbibliothek Trier und der Bibliothek des Bischöflichen Priesterseminars, die zusammen 434 Kodizes besitzen, finden sich darüber hinaus weitere Handschriften im Bistumsarchiv Trier und der Bibliothek des heutigen Klosters St. Matthias. Mit Hilfe der Digitalisierung wurden diese kulturellen Zeugnisse nicht nur für die Öffentlichkeit zugänglich gemacht, sondern auch eine vereinfachte wissenschaftliche Arbeit mit ihnen ermöglicht. Der hier vorgestellte Bestand ist für unterschiedliche Disziplinen von Wert. Genannt seien die Fächer Altphilologie, Germanistik, Geschichte, Kunstgeschichte, Theologie, Medizin und Rechtsgeschichte. Mit einer derart rekonstruierten Bibliothek ist die Absicht verbunden, das geistige Profil eines wichtigen Bildungszentrums und seines Wachstums nachzuzeichnen und neuartige Einblicke in die Produktions- und Rezeptionsbedingungen ihrer Bestände zu gewähren.

2009-2012 Wechselwirkungen zwischen linguistischen und bioinformatischen Verfahren, Methoden und Algorithmen. Modellierung und Abbildung von Varianz in Sprache und Genomen

Prof. Dr. Andrea Rapp (Verbundkoorination), Prof. Dr. Dietmat Seipel, Prof. Dr. Jörg Schultz, Prof. Dr. Werner Wegstein (alle Ludwig-Maximilians-Universität Würzburg), Prof. Dr. Ludwig Eichinger (Institut für deutsche Sprache Mannheim)
Förderung: Bundesministerium für Bildung und Forschung

Information und Wissen können durch Gruppierung von Einzelzeichen nach bestimmten Regeln kodiert werden, dabei gibt es prinzipielle strukturelle Gemeinsamkeiten zwischen Genomcode und sprachlichem Code sowie biologischer Entwicklung und Sprachentwicklung (vgl. Schlagwörter wie „ABC der Menschheit“, „Buch des Lebens“, „Sprachfamilie“). Ein zentrales Kennzeichen neben dieser „Entwicklungsfähigkeit“ und damit „Historizität“ ist die Vielfalt bzw. Varianz der Erscheinungen. Ein differenzierteres Verständnis der Mechanismen und Regeln von Entwicklung und Varianz ermöglicht neue und präzisere Verfahren der Informationsgewinnung sowie der Speicherung, Bearbeitung und Auswertung der dadurch gewonnenen Daten.

2009-2012 Grid für die Wissenschaft: WissGrid

Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung, Bergische Universität Wuppertal, Deutsches Elektronen Synchrotron, Deutsches Klimarechenzentrum GmbH, Institut für Deutsche Sprache, Institut für Wirtschaftsinformatik, Leibnitz-Universität Hannover, Prof. Dr. Andrea Rapp Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften / Universität Trier (später Technische Universität Darmstadt), Konrad-Zuse-Zentrum für Informationstechnik Berlin, Leibniz-Institut für Astrophysik Potsdam, Niedersächsische Staats- und Universitätsbibliothek Göttingen,
Förderung: Bundesministerium für Bildung und Forschung

Als Projekt im 3. D-Grid Call hat sich WissGrid die nachhaltige Etablierung von organisatorischen und technischen Strukturen für den akademischen Bereich im D-Grid zum Ziel gesetzt. Dabei bündelt WissGrid die heterogenen Anforderungen aus verschiedenen wissenschaftlichen Disziplinen und entwickelt so konzeptionelle Grundlagen für die nachhaltige Nutzung der Grid-Infrastruktur sowie IT-technische Lösungen. In diesem Kontext stärkt das Projekt die organisatorische Zusammenarbeit der Wissenschaften im Grid und senkt die Eintrittsschwellen für neue Community-Grids.

2008 – heute linguisticsweb.org

Dr. Sabine Bartsch

Das Projekt linguisticsweb.org beschäftigt sich mit der Entwicklung und Erstellung von Tutorials, How-tos, Links, Werkzeugen und Korpuszugängen zur Unterstützung von Forschungsaufgaben im Bereich der Linguistik, Corpus- und Computerlinguistik und der weiteren digitalen Philologien.

Ziel von linguisticsweb.org ist es, Studierende und Wisssenschaftler*innen bei der corpus- und computerbasierten Forschung durch die Bereitstellung von Materialien und Anleitungen zum Selbststudium und zur Begleitung der Lehre zu unterstützen und den eigenständigen Einsatz von Technologien und Methoden in der linguistischen und weiteren philologischen Forschung zu unterstützen.

Das Portal linguisticsweb-org wird in Forschung und Lehre sowie in Workshops eingesetzt und von internationalen Wissenschaftler*innen und Lehrenden genutzt.

linguisticsweb.org wurde 2008-09 als eigenständiges Online-Projekt erstellt und wird seitdem kontinuierlich weiterentwickelt.

2006-2015 TextGrid: Virtuelle Forschungsumgebung in den e-Humanities (seit 2016 Teil von DARIAH-DE)

Förderung: Bundesministerium für Bildung und Forschung

TextGrid wurde seit 2006 im Rahmen eines aus zehn institutionellen und universitären Partnern bestehenden Verbundprojekts, das bis Juni 2015 vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wurde (Förderkennzeichen: 01UG1203A) entwickelt. Seit 2016 ist TextGrid Teil der DARIAH-DE Forschungsinfrastruktur.

Im Rahmen des Projektes wurde eine virtuelle Forschungsumgebung für die Geisteswissenschaften entwickelt. Zu den wesentlichen Säulen gehören das TextGrid Laboratory, das Open-Source-Werkzeuge und –Services bereitstellt, das Repository zur Langzeitarchivierung von Forschungsdaten und die Community in allen Belangen unterstützende Services.