Ringvorlesung: Perspektiven der Digitalen Geistes- und Sozialwissenschaften

Symbolbild zum Artikel. Der Link öffnet das Bild in einer großen Anzeige.

„Beginnt endlich die Digitalisierung der Geisteswissenschaften?“ Dieser erst kürzlich in der Süddeutschen Zeitung gestellten Frage ist zu entgegnen, dass der Prozess der Digitalisierung der Geisteswissenschaften ebenso wie der Sozialwissenschaften und Kulturwissenschaften seit den ersten Anfängen in den 1960er Jahren inzwischen so weit fortgeschritten ist, dass daraus ein eigener, neuer Wissenschaftsbereich entstanden ist. Um eine Definition der „Digital Humanities“ wird weltweit in der Scientific Community gerungen; Lehrstühle und Studiengänge haben den Begriff in der universitären Landschaft etabliert. In der Reihe der Vorträge werden verschiedene Positionen und Perspektiven zur Diskussion gestellt und einzelne Projekte aus den Bereichen der digitalen Geistes- und Sozialwissenschaften präsentiert. Die Referentinnen und Referenten geben Einblicke in die Bandbreite der internationalen Forschung und in die aktuellen wissenschaftlichen Diskurse. Mit der international besetzten Ringvorlesung stellt sich das 2014 etablierte Interdisziplinäre Zentrum Digitale Geistes- und Sozialwissenschaften im Wintersemester 14/15 an der FAU und der interessierten Öffentlichkeit vor (www.izdigital.fau.de). Renommierte Expertinnen und Experten werden dabei verschiedene Aspekte und Perspektiven in den beiden zentralen Themenfeldern des neuen interdisziplinären Zentrums zur Diskussion stellen: Welche neuen methodischen Zugänge eröffnen digitale Techniken für Forschung in den Geistes- und Sozialwissenschaften, welche Fragestellungen können damit bearbeitet werden? Was sind die Effekte, Potenziale und Risiken digitaler Techniken in Wissenschaft und Gesellschaft?

Zeit: Donnerstag, 18-20 Uhr 

Ort: Kollegienhaus, Raum 0.016, Universitätsstraße 15, 91054 Erlangen

 

 

Die Idee für die Zwecke der Geisteswissenschaften einzusetzen ist alles andere als neu: Unter verschiedenen Bezeichnungen lässt sie sich bis ins Jahr 1949 zurückverfolgen. Unabhängig von den wechselnden Bezeichnungen haben sich in unterschiedlichen Bereichen der Geisteswissenschaft Traditionen der IT Nutzung etabliert, deren methodische Grundprobleme wesentlich stabiler sind, als es die zu ihrer Lösung eingesetzten den jeweiligen Stand der Technik reflektierenden Anwendungen vermuten lassen. Im Augenblick trägt dieses interdisziplinäre Feld den Namen „Digital Humanities“, der derzeit besonders starke Beachtung findet, die sich in einer Vielzahl von Projekten, (oft auch nur impliziten) Paradigmen, Infrastrukturen und Studiengängen niederschlägt. Sowohl die älteren, als auch die neueren Ansätze waren und sind dabei oft von handwerklichen Überlegungen geprägt: Wie in anderen Bereichen auch, erwarten sich viele GeisteswissenschaftlerInnen von der Informationstechnologie in erster Linie eine Entlastung bei Routinearbeiten. Parallel dazu gab es aberf auch immer wieder die Erwartung, dass durch den Einsatz dieser Werkzeuge methodische Möglichkeiten eröffnet werden, die auch sehr grundsätzliche epistemische Auswirkungen haben können.

Born 1950. Since 1970 studying history (originally history and Ancient Oriental Studies) at the University of Graz. There 1975 PhD in Modern History, with a thesis on „Studien zum Europäischen Amerikabild. Darstellung und Beurteilung der Politik und inneren Entwicklung der Vereinigten Staaten von Amerika in Deutschland, Großbritannien und Österreich zwischen 1840 und 1941 im Vergleich.“ Afterwards postdoc fellowship in (empirical) sociology at the Institute for Advanced Studies in Vienna; here specialization in historical mobility studies. At the same time participation in research projects on the history of the family, study of the daily life of the Middle Ages and interlocking directorates of German and Austrian companies. Since 1978 research fellow / senior research fellow at the Max-Planck-Institut for History, Göttingen. Responsible for the design and implementation of a general data base oriented programming system for history (CLIO / ). At the same time research on a general methodology of historical computer science. Since 1995 also part-time professor at the University of Bergen, Norway. There responsible for teaching in «Historical computer Science». September 1997 – February 2000 founding director, than permanent director of the «Humanities Information Technology Research Programme» and the attached research centre of the University of Bergen, Norway. Professor at the arts faculty there. March 2000 onwards Prof. of «Historisch Kulturwissenschaftliche Informationsverarbeitung» at the University of Cologne, Germany.

Computergestützte Literaturwissenschaft Der Computer gehört nicht zu den vertrauten Werkzeugen der Philologie. Und doch verändert sich gegenwärtig die Literaturwissenschaft, wenn inzwischen Millionen von Büchern digital zugänglich sind und andere Wege ihrer Erschließung möglich geworden sind. Digitale Editionen und große Digitalisierungsprojekte haben den Gegenstandsbereich der Literaturwissenschaft längst dramatisch erweitert. Die Gegenstände der Literaturwissenschaft sind nicht mehr nur der Kanon, sondern die Fülle der kulturellen Überlieferung. Und auch deren Erschließung kann auf neue methodische Zugänge setzen, die selbstverständlich den Computer und die Verarbeitung großer Datenmengen einbeziehen. Neben historisch-hermeneutische Verfahren treten statistische und überhaupt rechnende Verfahren. Man spricht nicht nur von dichten Lektüren, sondern auch vom Lesen auf Distanz. Das alles verändert und transformiert die Literaturwissenschaft. Von dieser Veränderung handelt der Vortrag.

Gerhard Lauer lehrt Deutsche Philologie an der Universität Göttingen und ist Gründungsdirektor des Göttingen Centre for Digital Humanities. Zu seinen Arbeitsgebieten gehören Literaturgeschichte, kognitive Literaturwissenschaft und Digital Humanities. Zuletzt erschienen „Burrows’s Delta and Its Use in German Literary History“, in: Distant Reading, Hg. von Erlin und Tatlock, 2014; „Die Vermessung der Kultur. Geisteswissenschaften als Digital Humanities“, in: Big Data, Hg. von Geiselberger und Moorstedt 2013, „Kunst und Empfindung“, hg. zus. mit E. Décultot, 2012.

Die Wissenschaftlerinnen und Wissenschaftler, die in den Geistes- und Sozialwissenschaften zu Hause sind, wissen es schon längst: Die Informatik nimmt ihnen ihre Arbeit nicht ab. Leider können die Informations- und Kommunikationstechnologien aber nur Denkwerkzeuge zur Verfügung stellen. Die Unterstützung der Informatik für Wissenschaften, in denen man typischerweise nicht oder nur wenig formal arbeitet und wo Differentialgleichungen kaum eine Rolle spielen, ist gar nicht so spektakulär. Man weiß, was man von Datenbankabfragen und von der Visualisierung von Netzwerken erwarten kann. Gibt es Potenziale, die weitreichender sind? Kann die Digitalisierung einen Beitrag leisten zu ungewöhnlichen Hypothesen, zu überraschenden Sichtweisen und zu nicht geahneten Erkenntnissen? Können digitale Technologien, die auf akribisch vorgedachte Art und Weise letztendlich nur mit Nullen und Einsen manipulieren, Überraschungen hervorbringen? Ja. Es gibt sie, die Technologies for Serendipity. Meme Media Technology, von Yuzuru Tanaka an der Hokkaido University Sapporo, Japan, ins digitale Leben gerufen, erlaubt einen Umgang mit digitalisierter Information, in der das Potenzial steckt, ungeahnte Entdeckungen zu machen. Die erste Implementierung weltweit ist 2013 am Fraunhofer IDMT entstanden. Die Vorlesung (i) erläuert die Philosophie der Meme Media, (ii) illustriert die prinzipielle Funktionsweise, (iii) geht ein wenig in die Details und zeigt, was an der Technologie anders ist, und (iv) diskutiert das Potenzial für Serendipity. (v) Zusammenfassend werden Eckpunkte eines Programms dargestellt, durch das die Webble Technology den Digital Humanities in Zukunft neue Chancen eröffnen kann.Kurzbiographie:

Klaus Peter Jantke studierte an der Humboldt-Universität Mathematik, erhielt sein Dilom 1975 und wurde 1979 promoviert. Von 1985 bis 1987 war er Stellv. Direktor des Rechenzentrums der Humboldt-Universität. 1987 erhielt er den Ruf als Ordentlicher Professor für Theoretische Informatik und Grundlagen der Künstlichen Intelligenz an die TH Leipzig.Klaus Peter Jantke war tätig als S.E.R.C. Research Fellow an der Stirling University, Schottland, als Visiting Researcher am International Computer Science Institute, Berkeley, CA, USA, und als Visiting Researcher an den Fujitsu Research Labs, Numazu, Japan. Er war ein Semester Full Professor an der Kuwait University und ein Jahr Professor auf einer Stiftungsprofessur von Hitachi Software an der Hokkaido University Sapporo, Japan. Er hat an Universitäten in Berlin, Cottbus, Darmstadt, Ilmenau, Leipzig und Saarbrücken gelehrt. Ab Anfang 2008 hat Klaus Peter Jantke die Abteilung Kindermedien des Fraunhofer IDMT aufgebaut und sein Portfolio um Spieleforschung und -entwicklung erweitert. Seit 2014 ist er in einem erweiterten Arbeitsbereich als Chief Scientific Officer tätig.

This paper will examine and critique the rise of smart city initiatives. It will focus on how cities are increasingly composed of and mediated by networked ICT infrastructure, sensors, and software, and how they are becoming knowable and controllable in new, dynamic, reactive ways through big data (high volume, varied, real-time data). Various pitfalls of smart city initiatives, such as technocratic and corporatised governance, panoptic surveillance, buggy and hackable systems, and the politics of urban big data will be discussed, as will an example smart city system – the Dublin Dashboard. The final part of the paper, will examine the opportunities, challenges and risks of big data to understanding cities from both a geographic, and wider social science, perspective.

Rob Kitchin is a professor and ERC Advanced Investigator in the National Institute of Regional and Spatial Analysis at the National University of Ireland Maynooth. He has published widely across the social sciences, including 23 books and over 130 articles and book chapters. He is editor of the international journals, Progress in Human Geography and Dialogues in Human Geography, and for eleven years was the editor of Social and Cultural Geography. He was the editor-in-chief of the 12 volume, International Encyclopedia of Human Geography. He is currently a principal investigator on the Programmable City project, the Digitial Repository of Ireland, the All-Island Research Observatory and the Dublin Dashboard. He was the 2013 recipient of the Royal Irish Academy’s Gold Medal for the Social Sciences.

I will connect the process of creating maps based on texts to differences between the two media at a formal level. I will introduce transformative digital intermedia studies and show how critical stepwise formalisation as a modelling method is especially well suited to study media differences at a micro level. I will show examples of problems detected by the method and how they can be understood theoretically.While I will document several types of textual expressions which are not translatable to maps, I do not claim the two should be separated. On the contrary: because of their different sign systems and because they can present different if overlapping views of the world, combining them is necessary to move towards richer geographical stories.

Øyvind Eide holds a PhD in Digital Humanities from King’s College London (2012) which was funded by a grant from the The Research Council of Norway. He was been an employee in various positions at The University of Oslo from 1995 to 2013, most recently as a Senior Analyst at The Unit for Digital Documentation. From October 2013 he is a Lecturer and research associate with the Chair of Digital Humanities at The University of Passau. Eide is an elected member of the board of The European Association for Digital Humanities (EADH) from 2008 to 2014 and a co-opted member from 2014 to 2015. He is the Chair of the Awards Committee The Alliance of Digital Humanities Organizations (ADHO) from 2011 to 2017. He is an elected member of the executive of the ADHO SIG Global Outlook::Digital Humanities (GO:DH) from 2014 to 2016. He is one of the two founding conveners of the Ontologies SIG, Text Encoding Initiative (TEI) Consortium since 2004 and the co-chair of the CIDOC Co-reference Working Group since 2010 (founding chair 2008-2010). His research interests are focused on the modelling of cultural heritage information, especially as a tool for critical engagement with the relationships between texts and maps as media of communication. He is currently engaged in investigating the limitation of texts and maps as means of conveying geographical understanding, using conceptual modelling of texts as his main method.

Die Kunstwissenschaften haben in zweierlei Hinsicht mit digitalen Medien zu tun: einerseits als Arbeitswerkzeug und -plattform, andererseits als Gegenstand ihres Faches. Während Kunstwissenschaftlerr sich bereits seit den 1980er Jahren digitaler Technologien bedienen, begonnen die Künstler damit schon drei Jahrzehnte früher. Dementsprechend verlief auch die weitere Entwicklung in beiden Bereichen eher asynchron. Während die Kunstwissenschaften sich aktuell in einer Phase großer Euphorie bezüglich dieser Technologien befinden, hatte diese in der Kunst ihren Höhepunkt bereits in den 1990er Jahren. Heute wird hier bereits das Konzept des Postdigitalen propagiert. Postdigitalität bezeichnet allerdings keine Abkehr vom Digitalen, sondern gerade eine Phase, in der digitale Technologien so alltäglich geworden sind, dass eine klare Trennung zwischen ‚analog‘ und ‚digital‘ oder ‚real‘ und virtuell‘ nicht mehr möglich oder sinnvoll erscheint. Gerade aus diesem Grund wird eine kritische Neubewertung digitaler Technologien und unserer Nutzung derselben gefordert. Dieser Vortrag fragt, ob die digital humanities von diesem ‚Vorsprung der Kunst‘ profitieren können (oder müssten), um bereits jetzt in eine postdigitale Phase überzugehen?

Katja Kwastek ist Kunsthistorikerin mit Schwerpunkt auf zeitgenössische Kunst und Medienkunst. 2001-2006 war sie wissenschaftliche Assistentin am Institut für Kunstgeschichte der LMU München, 2006 Gastprofessorin an der Rhode Island School of Design (Providence, RI), 2006-2009 Researcherin und (stellvertretende) Leiterin des Ludwig Boltzmann Instituts Medien.Kunst.Forschung in Linz (Österreich). 2011 habilitierte sie sich an der LMU München zum Thema „Ästhetik der Interaktion in der digitalen Kunst“. Im Sommersemester 2012 vertrat sie die Professur für Kunst und Neue Medien an der Humboldt Universität, Berlin. Im Wintersemester 2012/13 lehrte sie an der Paris Lodron Universität (Salzburg). Seit September 2013 ist sie Professorin für moderne und zeitgenössische Kunstgeschichte an der VU University Amsterdam. Im Jahr 2004 kuratierte sie die erste internationale Ausstellung zum Thema „Ohne Schnur. Kunst und drahtlose Kommunikation“. Publikationen u. a.: “Aesthetics of Interaction in Digital Art” (Cambridge, MA: MIT Press, 2013), “Ohne Schnur. Kunst und drahtlose Kommunikation”, (Frankfurt: Revolver, 2004) und “Computer, Kunst und Kunstgeschichte” (Köln: Deubner, 2003, mit Hubertus Kohle).

Die Digitalisierung fordert die Kultur besonders heraus. Ihre analogen Präsentationsformen scheinen geradezu im Widerspruch zur Digitalisierung stehen. Ich werde in meinem Vortrag aufzeigen, welche Motoren hinter der (R)evolution der digitalen Kommunikation stehen und welche Folgen diese für die Kultur haben, die zum Teil an den Grundlagen einer Institution rütteln. Am Beispiel des Museums werden diese Konsequenzen herausgearbeitet und das Konzept der digitalen Orte für Museen vorgestellt. Hier eröffnen sich neue Chancen für Geschäftsmodelle in der Kultur und für die Wissenschaftskommunikation.

Holger Simon hat in Köln Kunstgeschichte, Philosophie und Pädagogik studiert, 1998 im Fach Kunstgeschichte promoviert und 2007 habilitiert. Neben seinen Forschungsthemen zur Ästhetik und bildenden Kunst der Frühen Neuzeit galt sein Interesse stets den Anwendungen der digitalen Medien in der Kunstgeschichte. Im Museum Schnütgen implementierte er als Volontär die erste Objektdokumentation. Ab 2001 baute er als Hochschulassistent zusammen mit Partnerhochschulen prometheus auf, das mittlerweile größte digitale Bildarchiv für Forschung und Lehre, das 2000 Jahre Kunst- und Kulturgeschichte umfasst und sich heute durch ein non-profit Geschäftsmodell selber trägt. 2009 gründete er gemeinsam mit Prof. Dr. Stephan Hoppe die Pausanio GmbH & Co. KG. Fasziniert von der Idee, Kunst und Kultur mobil direkt vor Ort anzubieten, starteten sie Pausanio als Audioguideportal für Kunst- und Kulturreisende. Bereits ein Jahr später gründeten sie die Agentur Pausanio Production und 2013 die Pausanio Akademie.

The question of how to order our knowledge is as old as the systematic acquisition, circulation, and storage of knowledge. Classification systems have been known since ancient times and are often associated with a tree metaphor and visualisation. But visual representations of knowledge spaces are still an object for experts. A user navigating through large information spaces on-line is most of the time confined to a text based search interface and a list of hits as outcome. While increasingly more information is available on-line, navigating through it has not become simpler. This talk introduces ‘knowledge maps’ as means to visualise large collections of libraries, scholarly communication or your own personal information space. We also discuss why an alliance between communities as different as digital humanities, computer science, physics and sociologists of knowledge is needed to experiment, develop and implement knowledge maps.

Dr. Andrea Scharnhorst is Head of Research and Innovation at the Data Archiving and Networked Services (DANS) institution in the Netherlands – a large digital archive for research data primarily from the social sciences and humanities. She is also coordinates the computational humanities programme at the e-humanities group of the Royal Netherlands Academy of Arts and Sciences (KNAW) in Amsterdam. Starting in physics (Diploma in Statistical Physics) she got her PhD in philosophy of science. She co-edited books in the Springer Series of Understanding Synergetics on Innovation Networks (with A. Pyka) and recently on Models of Science Dynamics (with K. Börner and P. van den Besselaar). Her current work in the information sciences is devoted to the development of knowledge maps for library collections, research data archives and on-line knowledge spaces such as Wikipedia.

Forschungsdaten in der Archäologie, der Bauforschung oder der Sozial- und Kulturgeographie weisen verschiedenartigste räumliche Bezüge auf. Bei der Aufbereitung, Analyse und Visualisierung solcher Daten werden seit längerem Technologien der Geoinformatik erfolgreich eingesetzt. Andererseits stoßen kulturwissenschaftliche Projekte mit ihren Fragestellungen oft an die Grenzen dessen, was Geoinformationssysteme (GIS) unterstützen. Hierzu gehört beispielsweise der Umgang mit qualitativen Daten bzw. Suchanfragen. Unter der Bezeichnung Place-based GIS werden derzeit alternative Formen der Ortsmodellierung exploriert. Zugleich ermöglichen die partizipativen Formen der Geodatenerhebung, z.B. OpenStreetMap, sowie die ortsbezogenen sozialen Netzwerke neue Möglichkeiten der Raumbeschreibung. Der Vortrag zeichnet anhand von Projektbeispielen nach, wie sich die verändernden Anforderungen in geoinformatischen Lösungsansätzen niederschlagen, deren Ortsmodelle die Verbindung zwischen räumlicher Semantik und sozialer Interaktion berücksichtigen.

Christoph Schlieder lehrt Informatik an der Otto-Friedrich-Universität Bamberg, wo er die Forschungsgruppe zur Angewandten Informatik in den Kultur-, Geschichts- und Geowissenschaften leitet. Zuvor war er als Professor für Praktische Informatik und Leiter der Arbeitsgruppe Künstliche Intelligenz an der Universität Bremen tätig. Sein Forschungsschwerpunkt liegt im Bereich semantischer Informationstechnologien und deren Anwendung auf Fragestellungen aus den Kulturwissenschaften. Er hat u.a. Inferenzverfahren entwickelt, die komplexe Problemlöseprozesse mit Geoinformationssystemen unterstützen. Ein anderer Arbeitsschwerpunkt sind semantische Migrationsverfahren, die helfen, der Formatalterung digitaler Dokumente zu begegnen.

Im Vortrag plädiere ich für die Forschungsrichtung einer „visuellen Linguistik“. Hintergrund sind die semiotischen Grundlagen der Diagrammatik, mit der die Funktionen von Visualisierungen im Forschungsprozess beschrieben werden können. Gerade bei einem korpuslinguistischen Zugang auf Sprachdaten, bei dem große Datenmengen für explorative Analysezwecke aufbereitet werden, sind visuelle Analysemethoden von Vorteil. Am Beispiel von sog. „Geokollokationen“, Kollokatoren zu Toponymen, zeige ich einen Anwendungsfall aus diesem Bereich.

– 1997-2003: Studium der Germanistik, Kommunikations- und Medienwissenschaften sowie Soziologie in Basel.

– 2004-2009: Assistenz am Lehrstuhl von Prof. Dr. Angelika Linke, Deutsches Seminar, Zürich.

– 2009: Promotion in Zürich zu „Muster an der sprachlichen Oberfläche: Methoden einer korpuslinguistischen Diskurs- und Kulturanalyse am Beispiel des Sprachgebrauchs in der Neuen Zürcher Zeitung von 1995 bis 2005“.

– 2008-2009: Projektleitung „Tracking Meaning on the Surface: A Data-Driven Approach zu Semantic Imprints of Texts“ am Heidelberg Center for American Studies, Universität Heidelberg.

– 2009-2012: Wissenschaftlicher Mitarbeiter am Institut für Deutsche Sprache in Mannheim.

– 2012-heute: Wissenschaftlicher Mitarbeiter an der Professur für Angewandte Linguistik, Technische Universität Dresden.

– ab 2015: Projektleitung „Visual Linguistics: Grundlagen der Visualisierung von sprachlichen Daten“ am Institut für Computerlinguistik, Universität Zürich.

Weitere Informationen: Homepage von Noah Bubenhofer

Spitzwegs Gelehrter Mönch am Schreibtisch gibt das populäre Bild des Geisteswissenschaftlers wieder, alleine hinter dicken Büchern, und, abgesehen von einem Stift, ohne Hilfsmittel. Immer mehr Geisteswissenschaftler suchen dagegen Fortschritt durch den Gebrauch digitaler Mittel. Diese zeichnen sich durch ihre Zugänglichkeit, ihre Kapazität, und nicht zuletzt durch ihre Kontrollierbarkeit aus. In den Geisteswissenschaften wie der Sprachwissenschaft oder der Archäologie sind digitale Techniken nicht mehr wegzudenken, aber auch in Philologie, Geschichte und Literaturwissenschaft werden neuerdings Herausforderungen mittels digitaler Technik aufgegriffen. Es zeichnet sich neben den obengenannten Vorteilen auch ein weiterer ab, nämlich die Möglichkeit, abstraktere Sichten der Gegenstände zu entwickeln, um auch zu allgemeineren Theorien zu erlangen, die trotz ihres Abstraktionsniveaus, empirisch nachprüfbar bleiben. Dies werden wir anhand der deutschen Dialektologie demonstrieren.

John Nerbonne hat Sprachwissenschaft und Informatik an der Ohio State University studiert um dann acht Jahre lang in der Industrie zu arbeiten (Hewlett-Packard Labs, Palo Alto, und Deutsches Forschungszentrum für künstliche Intelligenz, Saarbrücken). Seit 1993 hat er den Lehrstuhl für Computerlinguistik in Groningen inne, wo er auch die Abteilung für geisteswissenschaftliche Informatik leitet. Er hat über dreißig Dissertationen betreut, hat als Direktor des ‚Center for Language and Cognition, Groningen‘ vierzehn Jahre gedient, hat mehrere große Projekte geführt, und wurde 2002 zum Präsidenten des internationalen ,Association for Computational Linguistics‘ gewählt. Er hat zu einem breiten Spektrum von sprachwissenschaftlichen Themen geforscht, u.a. Grammatikentwicklung, Semantik, natürlich-sprachliche Schnittstellen, computerunterstützte Sprachlernsysteme, Informationsextraktion, Simulationen von Spracherwerb, Sprachkontakt, und das Aufspüren von syntaktischen Unterschieden in Textkorpora. Der Fokus seiner Forschung ist seit zehn Jahren die computerunterstütze Analyse der Aussprachevariation, wo er für eine Reihe neuer Techniken, Verbesserungen und Verfeinerungen verantwortlich gewesen ist, die vor allem in der Dialektologie Einsatz gefunden haben.

To what extent can corpora illuminate the past? Can the close readings traditionally associated with the study of history gain from the tools and methods of corpus analysis? In this talk I will talk about work I have undertaken with historian Dr. Helen Baker looking at an issue in social history – prostitution in seventeenth century England. Social history in particular represents an interesting topic where the corpus might contribute – while the documentary sources and analyses associated with major historical events and figures are typically many and well analysed, the documents associated with the everyday, the unexceptional, are more sparse. In the case of marginalised or criminalised groups the documentary evidence outside of court proceedings is widely scattered and typically indirect. Prostitutes (we deal only with female prostitutes in this talk) are a good example of such a marginalised group – indeed in such a case the marginalization is enhanced by class and gender as well as criminality. I begin by considering what social historians have claimed about prostitution in this period. I then move to look at what the corpus shows us, using the latest version of the EEBO corpus available at Lancaster University – 1.5 billion words of lemmatised, POS tagged and spelling regularised written texts from the 15th, 16th, 17th and 18th centuries. Using corpus techniques to explore the texts, I show what a corpus may show the historian about prostitution in the period – and what historians can offer to corpus linguists who are approaching texts from this period.

Learning can be tracked and analysed while it happens through the careful collection of traces that learners and teachers leave behind. That hypothesis is at the core of learning analytics. Collection of such on-line traces can be done by tracking mouse clicks, contributions to discussion fora, blog posts, text edits, software code contributions, etc. This is very similar to what commerce web sites do, or search engines, or social media, etc. Off-line activities can also be tracked, through cameras, microphones, sensors, etc. in a way that resonates with Quantified Self approaches to self knowledge through numbers. The analysis of learning traces can be done algorithmically, in what is called Educational Data Mining. However, with a strong focus on learner and teacher empowerment, our work focuses on the visualisation of traces to support informed decisions. Such visualisations can be deployed in the full spectrum of devices, from small mobile screens over desktops to tabletops and large public displays. An additional benefit of learning analytics is that it may help to approach learning and education in a more scientific way. However, there is also a real danger that the focus on measurable activities promotes shallow learning and that ubiquitous tracking will be oppressive rather than empowering to the individuals involved.

Erik Duval chairs the research unit on human-computer interaction, at the computer science department of the Katholieke Universiteit Leuven. His research focuses on learning analytics, openness and abundance. In practical terms, his team researches information visualisation, mobile information devices, multi-touch displays, quantified self and personal informatics. He serves on the executive committee of the Society for Learning Analytics Research (SoLAR), as a fellow of the AACE, as a member of ACM, and the IEEE computer society, on the Editorial Review Board and the Executive Advisory Board of the International Journal on E-Learning, as an associate editor of the IEEE Transactions on Learning Technologies (TLT), on the board of editors of the Journal of Universal Computer Science, and as a member of the informatics section of the Academia Europeae. Weitere Informationen: Weblog von Erik Duval

RTI is increasingly being exploited as a powerful visualisation tool for ancient written culture. In addition to improving readability, this advanced photographic technique offers great potential for the systematic study of graphical marks from the perspective of their material structure. This latter affordance serves as a springboard for my talk on RTI as a research aid for textual evidence from the Eastern Mediterranean / Ancient Near East. I discuss ways in which RTI supports exploration of the entangled relationships between text and its material properties. I also present newly acquired results on the renowned Herculaneum Papyri to illustrate ways in which RTI augments previous imaging work and is resulting in new interpretive insight and greater methodological reflexivity. However, certain challenges arise depending on text-object type, capture method and research aims. I present a selection of these issues for discussion and consideration of possible solutions.

Dr. Kathryn E. Piquette is a Research Associate at the Cologne Centre for eHumanities (CCeH), Universität zu Köln. She is currently engaged in Reflectance Transformation Imaging documentation of Greek texts for the Magica Levantina and Herculaneum Papyri projects. Although Kathryn’s training is in Egyptology (MA [2001] and PhD [2007] from University College London), digital imaging — RTI especially — have featured extensively in her post-doctoral work at Trinity College Dublin, University of Oxford and Freie Universität Berlin. RTI serves as an essential visualisation tool for Kathryn’s personal research on early Near Eastern writing and art, especially for accessing artefact surface data that can reveal ancient image production processes and associated material practices. Her recent publications include the co-edited volume Writing as Material Practice: Substance, surface and medium (DOI) and various articles on RTI and scribal practice. Weitere Informationen: Homepage von Kathryn E. Piquette

Die Vielfalt der Objektgattungen, unterschiedlichste fachliche Kontexte und Forschungsfragen, institutionelle Situationen und kulturelle Traditionen, eine schwierige Ressourcenlage und nicht zuletzt offene Fragen zur Zukunft der digitalen Gesellschaft lassen die Digitalisierung materieller musealer und universitärer Objektsammlungen als ein spannendes und zugleich spannungsreiches Feld erscheinen. Den Überblick zu bewahren fällt nicht leicht, soll aber dennoch versucht werden. Der Vortrag wird eine Reihe von exemplarischen Beispielen aus unterschiedlichen Bereichen und Ebenen präsentieren, zentrale konzeptionelle, organisatorische und strategische Probleme diskutieren und dabei eine durchaus subjektive Perspektive, gesättigt aus der Erfahrung alltäglicher Arbeit für die Digitalisierung von Objektsammlungen, einnehmen. Kurzbiographie: Martin Stricker arbeitet als wissenschaftlicher Mitarbeiter an der Koordinierungsstelle für wissenschaftliche Universitätssammlungen in Deutschland (Hermann von Helmholtz-Zentrum für Kulturtechnik, Humboldt-Universität zu Berlin) und ist für den Bereich der Digitalisierung und digitalen Vernetzung der universitären wissenschaftlichen Sammlungen verantwortlich. Unter anderem entwickelt er die Web-Plattform „Wissenschaftliche Sammlungen digital“.