Forschung

Das Arbeitspaket mit dem kulturwissenschaftlichen Schwerpunkt “Materialität und Schriftlichkeit” wird im Projekt von Prof. Dr. Rebecca Grotjahn geleitet. Als Professorin für Musikwissenschaft mit dem Schwerpunkt auf musikwissenschaftlicher Genderforschung in kulturgeschichtlicher Perspektive forscht sie seit einigen Jahren zu den grundsätzlichen Konzepten, die dem Musizieren, der musikalischen Rezeption und Musikgeschichtsschreibung zugrundeliegen, insbesondere dem Werkbegriff und der Kategorie Autorschaft. Neben der Tätigkeit als Sprecherin der Fachgruppe Frauen- und Genderstudien in der Gesellschaft für Musikforschung ist sie außerdem Mitbegründerin des Jahrbuchs Musik und Gender und initiiert ein Langzeitprojekt zur musikalischen Alltagsgeschichte, in dem sie sich auch dem Ansatz Materielle Kultur und Kultur widmet.
Die Arbeitsgruppe Kontextuelle Informatik (Prof. Dr. Keil) beschäftigt sich im Rahmen von ZenMEM mit Annotationskonzepten. In Anlehnung an Frans Wierings Multidimensional Model digitaler Editionen und der damit verbundenen Forderung nach einer möglichst umfassend aufbereiteten Datenbasis sowie intensiver Verknüpfungen der Objekte sollen erste prototypische Umsetzungen des Forschungsprojekts Freischütz Digital für den Bereich digitaler Musikeditionen erweitert und um die bislang unberücksichtigten nicht-textuellen Objekte ergänzt werden. Die Konzepte und deren Umsetzungen (z.B. auf Basis von RDF oder Triplet-Stores) sollen dabei so generisch bleiben, dass weitere Objektarten zu einem späteren Zeitpunkt aufgenommen werden können. Den bisherigen Ansätzen folgend sollen dabei Beziehungen über den Detailgrad der Objekt- bzw. Dateiebene hinaus auch auf semantische und strukturelle Elemente innerhalb dieser Objekte ausgedehnt werden.
Auch die bestehenden Konzepte semantischer Annotationen sollen um weitere nicht-textuelle Objekte ergänzt werden. Hierfür werden, basierend auf der Analyse verschiedener Arbeitsprozesse, Typologien für Annotationen genutzt bzw. angelegt, um möglichst kontextspezifische Strukturen und Inhalte abbilden und prozessieren zu können. Annotationen, die mehrere Objekte oder Elemente in Beziehung zu einander setzen, können als erweiterte, formalisierte Beziehungen aufgefasst werden. Derart detaillierte Modelle erlauben nachgelagerte Forschung auf Basis der erstellten Annotationen, die somit wieder zum Betrachtungsgegenstand neuer Fragestellungen werden können.
Sowohl für einfache Beziehungsstrukturen als auch Annotationsmodelle müssen Codierungskonzepte entwickelt werden, die unterschiedliche Grade an Formalisierung zulassen und zugleich auf verschiedenen Ebenen der Objektstrukturen eingesetzt werden können.
Ebenso wird für die Annotation der Medien-Objekte eine umfassende Unterstützung entwickelt. Neben einfachen textbasierten Annotationen sollen auch strukturierte Annotationen (wie z.B. die Definition von Geo-Informationen) für die spezielle Funktionalität ermöglicht werden. Eine entscheidende Annotationsform ist dabei die Verknüpfung verschiedener Medientypen, beispielsweise Notentext–Audio, Noten- codierung–Scan eines Autographs, usw. Hierfür sollen Werkzeuge zur Verknüpfung verschiedener nicht-textueller Objekte entwickelt werden; dabei gilt es, sowohl für die Darstellung als auch für die Annotation und die Verknüpfung verschiedener Medien ein modulares Architekturkonzept zu entwickeln, das die Aufnahme von neu hinzukommenden Typen nicht-textueller Objekte erleichtert.
Im Projekt ist die Arbeitsgruppe Medienökonomie und Medienmanagement von Prof. Dr. Jörg Müller-Lietzkow für die medienwissenschaftliche Begleitforschung verantwortlich. Der Fokus liegt dabei auf neuen Einsatzmöglichkeiten von Interaktionsgeräten im Editionsprozess. In diesem Sinne werden zunächst quantitative Studien zur Nutzung und Aneignung dieser neuen Möglichkeiten durch die Editoren durchgeführt. Ziel ist es, eine grundlegende Einschätzung der Nutzung, Handhabungsstrategien, Erwartungen und Orientierungen der neuen Instrumente für die Nutzerinnen und Nutzer in Theorie und Praxis zu gewinnen. Die Innovationsentwicklung der letzten Jahre aufgreifend, sollen neben etablierten Techniken auch neue Interaktionsmöglichkeiten, wie Gestenerkennung und Tablets mit Stifteingabe eingesetzt und an die bestehende Softwarearchitektur angebunden werden. Auf diese Weise können intuitive Benutzerschnittstellen entwickelt werden, die auf den ursprünglichen Arbeitsweisen des Editors bzw. des Tonmeisters aufbauen. Hier stellt sich die Frage, wie sich Arbeitsprozesse durch die Digitalisierung verändern und wie Nutzer an die neuen Werkzeuge herangeführt werden können. Die interaktiven Nutzerschnittstellen bieten aber nicht nur auf der Seite der Produzenten neue Möglichkeiten, sondern auch auf der Seite der Rezipienten. Die digitale Aufbereitung der Inhalte ermöglicht eine zeitlich synchrone, interaktive und parallele Ansicht komplexer Informationen, welche vielfältige Möglichkeiten in der Wissensaneignung bieten. Diese Prozesse gilt es ebenso in die Forschung einzubeziehen, um ein ganzheitliches Bild der Nutzung und Rezeption von digitalen Musikeditionen und der Arbeit mit interaktiven Schnittstellen in der Musikproduktion zu entwickeln.
Prof. Szwillus arbeitet seit Jahren im Bereich Mensch-Computer-Interaktion am Institut für Informatik der Fakultät für Elektrotechnik, Informatik und Mathematik der Universität Paderborn. Dabei stehen Aspekte der Modellierung im Kontext von Benutzungsschnittstellen im Vordergrund, aber auch Entwicklung von Konzepten im Bereich Multi-Touch werden bearbeitet. Bezogen auf Modellierung hat sich sein Arbeitsschwerpunkt auf die frühen Phasen, also auf Aufgabenanalyse und Aufgabenmodellierung fokussiert. Gerade computerferne Anwendungsdomänen erfordern eine intensive und systematische Analyse von Abläufen bei der Aufgabenbearbeitung (vor allem der eingesetzten Navigationskonzepte) und die intuitiv benutz- und verstehbare Strukturierung von Arbeitsabläufen von Anwendungssoftware. Hierzu werden in der AG Szwillus modellbasierte Entwicklungsmethoden erarbeitet, die es erlauben, die Gestaltung von Bedienoberflächen explizit an Benutzeraufgaben zu orientieren.
Zu den Schwerpunkten von Prof. Szwillus gehört auch die Entwicklung von Anwendungen für Multi-Touch-Tische (MTT) sowie angemessener „natürlicher“ Benutzerschnittstellen („Natural User Interfaces“) hierfür. In der nächsten Zeit wird in der Fachgruppe daher an der Integration von MTT-Interaktion in klassische Dialogmodellierungsmethoden gearbeitet werden, sodass ein realistisches Prototyping von sogenannten „Natural User Interfaces“ am MTT ermöglicht wird. Gleichzeitig wird der kollaborative Aspekt der Arbeit am MTT in die Aufgabenmodellierungskonzepte einfließen, um gemeinsames Arbeiten bestmöglich unterstützen zu können.
Das ZeMFI, im Speziellen im Bereich der Musikinformatik unter Prof. Dr. Aristotelis Hadjakos zusammen mit den Mitarbeitern Dr. Axel Berndt und Simon Waloschek, decken den Bereich in seiner ganzen Breite ab. Einen Schwerpunkt bildet die musikalische Mensch-Maschine-Interaktion. Typische Projekte beschäftigten und beschäftigen sich u.a. mit digitalen Notenständern, Interfaces für experimentelle Musik und der Modellierung von ausdrucksvollen Interpretationen.
Im Rahmen des ZenMEM-Projektes beschäftigt sich das Zentrum für Musik- und Filminformatik mit neuen Interaktionsmöglichkeiten in Verbindung mit Noten. Das Zentrum für Musik- und Filminformatik (ZeMFI) pflegt dabei die Interdisziplinarität von Ingenieurwissenschaften, Geisteswissenschaften und Kunst sowie die multimediale Verbindung Bild, Ton und Interaktion. Dabei erarbeiten wir neue Konzepte für die Visualisierung und Bedienung von digitalen Musik- und Medieneditionen, die bspw. Werkzeuge zur Annotation, mögliche Darstellungen und Eingaben nicht-textureller Objekte (z.B. Fotos, Noten, Audio, Video) beinhalten.
Die strukturierte Verknüpfung zwischen diesen Elementen bildet dabei einen wesentlichen Kern der Forschungsarbeit. Als weiteres wird ein Ansatz erarbeitet, der es Musikeditoren und Tonmeistern ermöglicht, ausdrucksvolle Interpretationen auf der Grundlage editorischer Entscheidungen zu generieren. Das statische, digitale Notenbild erfährt hierbei eine Überführung in zeitabhängige MIDI- und Audiodaten und schließlich, bei deren Wiedergabe, in die physisch erklingende Musik. Diese soll es ermöglichen, die praktischen Konsequenzen editorischer Entscheidungen vorzuhören, auszutesten, zur Grundlage von Höranalysen und musikwissenschaftlichem Diskurs (z.B. über Plausibilität und Praktikabilität) zu machen. Zugleich kann der entwickelte Ansatz die praktischen Nutzer bei der Erarbeitung und Produktion von entsprechenden Aufnahmen unterstützen. Ergänzend werden neue Eingabemethoden für die Bearbeitung von Vortragsanweisungen und die Erarbeitung ausdrucksvoller Interpretationen konzipiert und untersucht.
Die Softwareentwicklung wird durch modellbasierte, qualitätssichernde und nachhaltigkeitsfördernde Maßnahmen der Softwaretechnik begleitet. Hierbei stehen insbesondere die Modularisierung existierender Werkzeuge und deren Erweiterbarkeit im Fokus. Dafür werden Funktionalitäten existierender Werkzeuge für den Einsatz in den jeweils anderen Anwendungsbereichen in Form von Komponenten modularisiert, um deren gegenseitige Einbindung und Benutzung in weiterentwickelten Werkzeugen zu ermöglichen.
Um die Nachhaltigkeit der erarbeiteten Software-Lösungen für die Erstellung digitaler Musikeditionen (Edirom Editor) sicherzustellen, sollen speziell dafür modellbasierte Systemspezifikationen erarbeitet werden. Das übergeordnete Ziel dabei ist, das Wissen des Entwicklerteams wiederverwendbar zu dokumentieren und die Nachverfolgbarkeit von Anforderungen und deren Umsetzung in Quellcode sicherzustellen. Auf dieser Grundlage können spätere Änderungen und Erweiterungen effektiv durchgeführt werden.
In der aktuellen Projektphase werden, in Kooperation mit den anderen Partnern im Projekt, die Rahmenbedingungen für die weitere Entwicklung digitaler Musikeditionen erarbeitet. Dafür wurde der Edirom Editor als Alt-System analysiert und die angebotenen Funktionen mit in Workshops und Interviews identifizierten notwendigen Funktionen abgeglichen. Das Ergebnis dieser Arbeit ist ein Aufgabenmodell für die Erstellung digitaler Musikeditionen, das einen Überblick über die Tätigkeiten sowie deren Zusammenhänge gibt. Dieses stellte für den Entwurf einer Gesamtarchitektur, welche über die Zeit weiter verfeinert wird, die Basis dar. In der Gesamtarchitektur werden neben der möglichen Kapselung der einzelnen Funktionalitäten und der technischen Komponenten, die Möglichkeit der Einbindung bisheriger Werkzeuge, wie z. B. MerMEId, Meise oder Verovio, aufgezeigt.
Neben diesen reinen funktionalen Anforderungen, stellt vor allem die Identifizierung und Dokumentation nicht-funktionaler Anforderungen eine Herausforderung dar. Durch das Ziel digitale Musikeditionen in neuen Kontexten zu verwenden, fließen weitere, teilweise zu den Musikwissenschaften konträre, Anforderungen in die Entwicklung ein. So benötigt beispielsweise die ausdrucksvolle Interpretation der Noten eine besonders schnell zu interpretierende Darstellung. Des Weiteren müssen Prozesse beachtet werden, die in ihrer derzeitigen Form noch nicht existieren, was eine Identifizierung der konkreten nicht-funktionalen Anforderungen erschwert, da nur bedingt Klarheit über die genaue Ausgestaltung herrscht.
Zudem müssen die technologischen Entscheidungen der Vergangenheit auf Ihre Sinnhaftigkeit überprüft werden, um zu verhindern, dass evtl. Fehlentscheidungen die Nachhaltigkeit der Softwareentwicklung stören. Daher wird momentan ein Demonstrator entwickelt, um Qualitätsmerkmale und einzelne Technologien für den Einsatz in der Erstellung digitaler Musikeditionen zu evaluieren. Teil des Demonstrators ist ein Code-Generator, um aus Klassendiagrammen Code zu generieren, damit u. a. Änderungswünsche bezüglich der Struktur des MEI Schemas effizient evaluiert werden können.
Die interdisziplinäre Zusammenarbeit steht, zusätzlich zu der Begleitung der Neuentwicklung von Edirom, im Fokus unserer Forschung. Hierfür analysieren wir die Vorgehensweisen der verschiedenen Gruppen, insbesondere der Gruppen um Prof. Dr. Szwillus, Prof. Dr. Meister und Prof. Dr. Müller-Lietzkow. Ziel dieser Analyse ist es zu verstehen, wie Methoden und Modelle der einzelnen Disziplinen in das Software Engineering integriert werden können. Dies wurde bereits mit der Gruppe um Prof. Dr. Szwillus exemplarisch mit Aufgabenmodellen durchgeführt. Im nächsten Schritt werden zusammen mit der Gruppe um Prof. Dr. Meister untersucht wie die durchgeführten Interviews in die Softwareentwicklung, insbesondere der Anforderungsspezifikation, zurückfließen können.
Die qualitative Rezeptionsforschung und die medienpädagogische Unterstützung bei der Entwicklung von Vermittlungs- und Lehrkonzepten wird von Prof. Dr. Dorothee M. Meister geleitet. Sie ist Professorin für Medienpädagogik und empirische Medienforschung am Institut für Medienwissenschaften der Universität Paderborn. Frau Meister verfügt über langjährige Erfahrungen in der Medienpädagogik sowie in der Medien- und Evaluationsforschung. Die Schwerpunkte Mediennutzungsverhalten, Integration digitaler Medien in Bildungskontexten sowie Evaluation von medienpädagogischen Interventionen sind in diesem Kontext besonders herauszustellen.
Da die Arbeit mit der digitalen Musik-Edition eine technologische Neuerung darstellt, werden die verschiedenen Nutzungsprozesse, Handlungsstrategien, Erwartungshaltungen und Orientierungen der Nutzer eingehend erforscht werden, um so erste Eindrücke dieser neuen Form von Editionsarbeit sowie deren spezifische Qualität und Bildungspotenziale zu erschließen. So können neue Technologien andere Perspektiven sowie Zugänge zu bestimmten Thematiken ermöglichen. Die Digitalisierung der Musik-Editionen und die Struktur der Oberflächengestaltung der Plattform bieten neue Repräsentationsoptionen an und damit Differenzerfahrungen, die den Blick auf die Nutzung und Erschließung von musikalischen Wissensbeständen verändern können. Bei den klassischen Printedition ist es keineswegs selbstverständlich die diversen Werke und die komplexen Informationen kontextsensitiv sichten zu können. Zudem ist die Interaktivität der Plattform aufgrund ihrer Verweisstruktur unter analogen Bedingungen nicht realisierbar. Um diese komplexen Veränderungsprozesse erforschen und rekonstruieren zu können, werden in der ersten Projektphase qualitative leitfadengestützte Interviews mit den vorhandenen Nutzergruppen geführt. Aus der Auswertung des qualitativen Datenmaterials ergeben sich fundierte, nutzerzentrierte Erkenntnisse zu den Erwartungen, Nutzungsverhalten, speziellen Handlungs- und Orientierungsstrategien, die auch Hinweise auf eventuelle Optimierungsmaßnahmen beinhalten können, die zur Verbesserung des Angebots im Hinblick auf nutzerorientierte Unterstützungsmaßnahmen (bspw. Tutorials, Schulungen, Informationsmaterial) beitragen. Zudem wird durch die Erfahrungen und Beschreibungen der Nutzer sowohl aufgrund der Digitalisierung des Materials als auch der speziellen Verweisstruktur der Software- bzw. Oberflächengestaltung Eindrücke über veränderte Wissensaneignungsstrategien und Bildungsprozesse ersichtlich. Diese gilt es in der zweiten Forschungsphase zu vertiefen als auch den Erfolg eventueller Optimierungsmaßnahmen zu überprüfen. Auf der Basis dieser Erkenntnisse ist es möglich eine quantitative Evaluation aller Nutzer zu konzipieren, zu erheben und auszuwerten.
Um diese Art von Forschung zu gewährleisten ist der stetige Austausch zwischen den Mitarbeitern aller Teilbereiche von enormer Relevanz. So fanden in den ersten Monaten diverse Hospitationstermine statt, um Einblick in die Editionsarbeit, die Software sowie deren Aufbau zu erlangen. Aus diesen Terminen und einer eingehenden Literaturrecherche ist ein erster Leitfaden zur Befragung der Nutzer entstanden. Nach der Durchführung der ersten Interviews mit Editorinnen und Editoren im Sommer 2015, werden diese derzeit schrittweise mit der Arbeitsgruppe Softwaremodellierung ausgewertet.
Mit dem Konzept der virtuellen Wissensräume hat die Arbeitsgruppe Kontextuelle Informatik (Prof. Dr. Keil) bereits Mitte der 90er-Jahre das grundlegende Paradigma antizipiert, das später unter dem Namen „Nutzergenerierte Inhalte“ (Web 2.0 (2003) oder Social Software (2002)) bekannt geworden ist. Die dazu von uns entwickelten Systeme sind in vielen Bereichen seit Jahren erfolgreich im Einsatz. Der virtuelle Wissensraum stellt ein Kernkonzept dar, das im Laufe der Jahre um Mechanismen zur visuellen Wissensstrukturierung, zum responsiven Positionieren und zur Diskursstrukturierung erweitert worden ist. Sie eröffneten uns neue Möglichkeiten für die Entwicklung integrierter Forschungsumgebungen, in der Kulturgeschichte, in den Musikwissenschaften oder auch im industriellen Umfeld. Speziell in interdisziplinären Projekten aus dem Bereich der Digital Humanities zeigen sich unsere Konzepte als sehr gut adaptierbar, um vorhandene Potenziale auszuschöpfen und Synergien zu erschließen.
Zur Unterstützung des kooperativen Forschungsdiskurses in digitalen Musik/Medien-Editionen kann auf das Konzept der Wissensarbeit zurückgegriffen werden. Der Begriff Wissensarbeit betont dabei zum einen die notwendige Nutzung physischer Medien, um Wissen erzeugen, kommunizieren und verarbeiten zu können, zum anderen die Tatsache, dass jedwede Form von Wissensarbeit davon ausgehen muss, dass ein wesentlicher Teil dieser Arbeit darin besteht, bedeutsame Zusammenhänge zwischen Medienobjekten herzustellen, die in dieser Form (noch) nicht explizit angelegt und physisch repräsentiert sind. Hierfür sollen basierend auf Objektmodellen zur Identifizierung, Verknüpfung, Annotation und Bewertung von (Teil-)Objekten in analogen und digitalen Wissensartefakten, virtuelle Räume als gemeinsamer Handlungs- und Wahrnehmungsraum und eine damit verbundene Unterstützungsumgebung (basierend auf WebArena) für das verteilte visuell-räumliche Bearbeiten, Verknüpfen und Auswerten dieser Artefakte konzipiert werden. Neben der Entwicklung von Metadaten zur Generierung verschiedener räumlich-visueller Sichten auf die Wissensartefakte soll eine Einbettung in und Verknüpfung mit vorhandenen Werk- zeugen (wie z.B. Edirom Editor) und Forschungsinfrastrukturen (wie z.B. TextGrid oder DARIAH-EU) durchgeführt werden. Darüber hinaus sollen Fragen der Persistenzschicht und des Rechtemanagements geklärt und ggf. in Absprache mit bestehenden Forschungsinfrastrukturen umgesetzt werden.

Werkzeuge

Das für die Erstellung digitaler Musikeditionen genutzte Programm Edirom Editor ist neben der Präsentationssoftware Edirom Online das wesentliche Werkzeug für die Arbeit an einer Edirom-Edition. Hier lässt sich die Verortung der Taktpositionen – die momentan Basis für die meisten Funktionen von Edirom Online sind – auf den Abbildungen der Notenseiten mit Hilfe eines graphischen Werkzeugs vornehmen. Auch die Verknüpfung einzelner Notentexte in Werkzusammenhängen oder die graphisch unterstützte Erstellung von Einzelanmerkungen sind wesentlicher Bestandteil dieses Programms.

Neben dem eigentlichen Edirom Editor sind im Laufe der Arbeit in verschiedenen Projekten weitere Werkzeuge entstanden, die jeweils spezifische Probleme zu lösen versuchen, die mit Hilfe des Edirom Editors nicht zu lösen sind. Im Rahmen des Zentrums Musik – Edition – Medien wird aus diesem Grund eine Neuentwicklung der Editorenwerkzeuge vorgenommen, die eine offene Anbindung verschiedenster Werkzeuge erlaubt.

Die auf Basis des Edirom Editors erstellten Editionen werden mit der Präsentationssoftware Edirom Online für den Nutzer sichtbar. Edirom Online bietet dabei einen vielfältigen Umgang mit Quellenfaksimiles, mit in MEI codierten musikalischen Texten, mit in TEI codierten texttuellen Ressourcen, mit Audiodaten und der Annotation bzw. Synchronisation derselben.

Edirom Online bietet die Möglichkeit, digitale Editionen im Internet anzubieten, sodass sie im Browser ohne zusätzlichen Installationsaufwand gelesen bzw. genutzt werden können. Dies erlaubt einerseits die Erschließung neuer Vertriebswege, stellt andererseits aber gleichzeitig sicher, dass Änderungen und Ergänzungen an der Edition und Aktualisierungen der Software einfacher durchführbar bleiben. Darüber hinaus sind Verknüpfungen zu anderen Projekten oder Inhalten im Browser nochmals leichter möglich.

Meico ist ein Konverter für die Verarbeitung von Dateien im Format der Music Encoding Initiative (MEI), der im Zentrum für Musik- und Filminformatik mit dem Fokus entwickelt wurde, in MEI codierte (eindeutige) Musik in andere Formate überführen zu können. Der Konverter befindet sich bislang noch in einem Alpha-Stadium und unterstützt momentan im Wesentlichen die Ausgabe in MIDI.

Lehre

Text folgt in Kürze.
Text folgt in Kürze
Die medienpädagogische Unterstützung bei der Entwicklung von Vermittlungs- und Lehrkonzepten wird von Prof. Dr. Dorothee M. Meister geleitet. Im Rahmen der medienpädagogischen Forschung werden Lehrkonzepte sowohl für die Vermittlung bereits etablierter und neu zu entwickelnder Konzepte und Methoden als auch zur Nutzung der Softwarewerkzeuge erarbeitet. Die so entstehenden Materialien werden in frei zugänglichen Schulungsmaterialien und Dokumentationen festgehalten und sowohl für Workshops als auch für die universitäre Lehre eingesetzt werden. Hierfür sind in mehreren Schritten sowohl qualitative als auch quantitative Studien zu veränderten Bildungskonzepten im digitalen Medium und zu veränderten Nutzungsverhalten, Handlungsstrategien und Orientierungen bei der Nutzung digitaler Medien durchzuführen. Den Konzeptionen der entwicklungsorientierten Bildungsforschung und der prozessorientierten Bildungsarbeit folgend sind Evaluation und Qualitätssicherung bereits in den Projektprozess integriert. Die Etablierung der Digital Humanities in der Lehre soll durch gemeinsame, fächerübergreifende und in Kooperation aller beteiligten Institute durchgeführte Seminare und Lehrveranstaltungen verwirklicht werden. Dabei werden auch innovative Lehr-/Lernformate zum Einsatz kommen, die speziell an die Nutzung der Forschungsumgebung im Diskurs anknüpfen. Im Sommersemester 2016 werden Prof. Dr. Gudrun Oevel, Dr. Bianca Meise und Anna Maria Komprecht gemeinsam eine Einführung in die Digital Humanities anbieten und erste Lehrkonzepte und Methoden einsetzen.

Dienstleistungen

Text folgt in Kürze.
Text folgt in Kürze.
Text folgt in Kürze.
Text folgt in Kürze.
Text folgt in Kürze.

Vorträge und Publikationen

  • Axel Berndt, Benjamin W. Bohl (2016): XML Music Performance Description, Vortrag auf der Music Encoding Conference 2016, Music Encoding Initiative, McGill University, Schulich School of Music, Montréal, Canada, Mai 2016
  • Benjamin W. Bohl, Axel Berndt, Björn Senft (2016): Formate als Sackgassen: Handlungsempfehlungen, Vortrag auf der Jahrestagung der DHd 2016: Modellierung – Vernetzung – Visualisierung: Die Digital Humanities als fachübergreifendes Forschungsparadigma, Universität Leipzig, le-tex Verlag, Leipzig, März 2016
  • Anna Maria Komprecht, Daniel Röwenstrunk (2016): Projektmanagement in digitalen Forschungsprojekten – Ein Leitfaden für interdisziplinäre und kooperative Drittmittelprojekte im Umfeld Digitaler Musikeditionen in K. Richts und P. Stadler (eds.): “Ei, dem alten Herrn zoll’ ich Achtung gern’” Festschrift für Joachim Veit zum 60. Geburtstag, Allitera Verlag, München, Januar 2016, Seiten 509-522.
  • Gudrun Oevel (2016): Der Ton macht die Musik. Digitalisierung von Forschungsprozessen nicht nur in der Musikwissenschaft. in K. Richts und P. Stadler (eds.): “Ei, dem alten Herrn zoll’ ich Achtung gern’” Festschrift für Joachim Veit zum 60. Geburtstag, Allitera Verlag, München, Januar 2016, Seiten 587-597.
  • Reinhard Keil (2016): Gestaltung virtueller Forschungsumgebungen für die philologische Detailarbeit in K. Richts und P. Stadler (eds.): “Ei, dem alten Herrn zoll’ ich Achtung gern’” Festschrift für Joachim Veit zum 60. Geburtstag, Allitera Verlag, München, Januar 2016, Seiten 437-461.
  • Benjamin W. Bohl, Axel Berndt, Simon Waloschek, Aristotelis Hadjakos (2016): Dem Igel Sitte lehren … Musikedition: von der digitalen Verfügbarkeit zur aktiven Nutzung in K. Richts und P. Stadler (eds.): “Ei, dem alten Herrn zoll’ ich Achtung gern’” Festschrift für Joachim Veit zum 60. Geburtstag, Allitera Verlag, München, Januar 2016, Kapitel 12, Seiten 141-163.
  • Axel Berndt, Simon Waloschek, Aristotelis Hadjakos (2015): Gedanken zur Nutzung von Handgesten in der Musikproduktion in A. Schmidt, M. Burmester und A. Weisbecker (eds.): Mensch und Computer: Workshop für Innovative Computerbasierte Musikinterfaces University of Stuttgart, Stuttgart, September 2015, Seiten 325–330, Gesellschaft für Informatik, Oldenbourg Wissenschaftsverlag.
  • Aristotelis Hadjakos, Axel Berndt, Simon Waloschek (2015): Synchronizing Spatially Distributed Musical Ensembles in J. Timoney, T. Lysaght (eds.): Proceedings of the 12th International Conference on Sound and Music Computing (SMC-15), Maynooth University, Maynooth, Ireland, Juli 2015.
  • Daniel Röwenstrunk (2015): Detmold: Zentrum Musik – Edition – Medien. Universität Paderborn, Hochschule für Musik Detmold und Hochschule Ostwestfalen-Lippe gründen Kompetenzzentrum im Bereich der Digital Humanities. In Forum Musikbibliothek. Jahrgang 36 2015 Heft 2, Seiten 39–40.
  • Bianca Meise (2015): Bildungspotenziale digitaler Musik- und Medieneditionen zwischen Prozessen der Demokratisierung und der Entstehung von Ungewissheit. Ein theoretischer Verortungsversuch. Vortrag auf der Jahrestagung der Digital Humanities im deutschsprachigen Raum „Von Daten zu Erkenntnissen“, Karl-Franzens-Universität Graz, 26. Februar 2015. Download Abstract
  • Anna Maria Komprecht, Andreas Oberhoff (2015): Modellierung von Annotationen in der digitalen Musik- und Medienedition. Vortrag auf der Jahrestagung der Digital Humanities im deutschsprachigen Raum „Von Daten zu Erkenntnissen“, Karl-Franzens-Universität Graz, 25. Februar 2015. Download Abstract
  • Reinhard Keil (2014): Wissensintegrationsprozesse und verteilte Wissensorganisation in v. S. A. Keller, R. Schneider und B. Volk (eds.): Wissensorganisation und -repräsentation mit digitalen Technologien. De Gruyter Saur, Berlin, 2014, S. 162–179