Friday, September 28, 2007

CSSW 2007 - Conf. on Social Semantic Web in Leipzig - Aftermath

Back again -- this time in Jena -- I have a few minutes left to draw some resume about the last to days at CSSW 2007.

But first, I have to continue, where I left the day before. The final event yesterday (before the conference diner) was a panel discussion on the topic 'Is there a Social Semantic Web?' with Kingsley Idehen, Marc Fleischmann, KJlaus-Peter Fähnrich, Matthias Bärwolf, and myself. First at all, we did not provide any valid answer to the overall question. In the end, we were discussing, why the Semantic Web does not get the right attention, about (working) business models in Social Web and Social Semantic Web, and about incentives for participation (as well as on open source and open data)....

Finally, I really enjoyed this conference (esp. if you consider my bad experiences with the two conferences last week). O.k., maybe this was because the conference's topic was closer to my core interests compared to e-Learning (DeLFI) or XML (XML-Tage Berlin). There were also much more interesting people to meet, esp. I'm looking forward to meet again a collegue at Potsdam (Universität Potsdam, not HPI). I think, the basic question (as mentioned before) 'Is there a Social Semantic Web?' can be answered with YES. Why?...simply because many Social Semantic Web applications have been resented in the last two days, ranging from Semantic Wikis (where semantic data is authored in a collaborative way), over social networking applications that make use of implicit (semantic) data (and vice versa). I also guess that the topic will become even more important in the very next years. One major point (or objection) was the question about a (working) business model and the incentives being necessary to convince people to participate. It's rather difficult to predict the people's attitude and behaviour. Of course, maybe it's just 'ease of use'. Wikipedia is successful, because everybody can participate with only small effort (he/she must only be able to speak the Wiki-Language). Given that most people have some extraverted tendencies, given the user community of an aplication is of sufficient size, social reputation is an important incentive fr participation. But first, you need to have a sufficient large user community to attract users. Thus, it's similar to the chicken-and-egg problem....
Nevertheless, I hope this tpoic will also be present at this year's IWLS in Korea....

Thursday, September 27, 2007

CSSW 2007 - Conf. on Social Semantic Web in Leipzig, Sep. 27th 2007 - Day 02

The second day of the Social Semantic Web Conference (CSSW 2007 here in Leipzig. Fortunately, Weimar has a rather good train connection to Leipzig (approx. 55 minutes...). Thus, I can sleep at home and don't have to stay in a hotel in Leipzig (and ofcourse the costs for travelling will be we have a very low budget at the University for conference travells). Ok, first thing I had to learn was, the conference catering isn't really as bad as I had written yesterday. Actually, you get 5 tickets for refreshments every day (not for the whole conference). Thus, you won't die of thirst ;-)
(the Picture above is showing the University of Leipzig, Jahn Campus, where CSSW 2007 together with SABRE07 takes place)

But, back to the conference program. Today, I will chair the first session and therefore, I'm not able to blog live (at least during the morning). But I will write about the talks as soon as I find some spare time. The following talks are scheduled: Patrick Maué from the University of Münster with the topic 'Collaborative Metadata for Geographic Information'. Patrick is addressing so called participatory Geographic Information Systems (GIS) that are used for decision making, as e.g. in urban planning. Usually this data is published as a catalogue on the web. But, queries to this catalogue suffer of very bad recall and precision. This also comes from the dicersity of people involved in the process of generating metadata. People have different perspective, mental models, and terminology. Thus, the general problem being addressed is refinement of shared metadata. Of the three diffeent levels of semantics ( implicit semantics whic means data gathered from statistical analysis of the original data, soft semantics such as e.g. folksonomies, and formal semantics that allow proper reasoning), Patrick addresses the gap between implicit and soft semantics, and tries to bridge this gap by detecting similarities of metadata.

The following talk by Thomas Riechert has the title'Mapping Cognitive Models to Social Spaces - Lightweight Collaborative Development of Project Ontologies'. There, an application of the SoftWiki ontology for requirement analysis (SWORE) in the software development process is presented. Software development is carried out collaboratively by the different stakeholders of the process with the goal to model an application on an abstract level from different points of view. Stakeholders formulate their requirements in natural language and use the SoftWiki for coordination and aggregation of the requirement model, the project model, and the bug model. Then, stakeholders tag the requirements and from the tags the system extracts relationships between requirements that finally end up in the project model (=project ontology). The content of the three models serves as input to the Software Development process (a.k.a. CASE-Tool), which maps the models to UML and in this way creates the input data for the software developers.

Sören Auer (also co-chair of the conference) concludes the session with a talk on'DBpedia Relationship Finder'. Firt at al, DBpedia is an interesting project that makes use of the (inherent) structured data in wikipedia. This structured data can be found in so called 'info-boxes', i.e. tables usually put in a columns right of the wikipedia article containing data in a well structured (and hopefully commonly agreed) format. This data can be extracted from the wikipedia dump. The structured data is transformed into RDF-Triples that constitute a huge graph. The goal of DBpedia is (in the end) to enable the user to ask complex queries on the structured wikipedia data. The general problem anyway is to visualize this huge amount of data in an efficient way. The relationship finder tries to draw connections between two terms in DBpedia and therefore traverses the DBpedia graph trying to find paths (via different properties being specified by extracted content the original wikipedia info-boxes). These paths are presented in shortest path first order. Up to now, no ranking of paths with similar length is performed. Interesting thing to mention ist that the terms 'Leipzig' and 'Semantic Web' are connected via the property of Leipzig being the city, where Johann Sebastian Bach died ;-)
To get more information, you can exclude certain properties from the result paths (i.d. then only paths, which don't include that specific property are included).

The upcoming session is focusses on presentations around the SoftWiki project (as also was the talk of Thomas Riechert in the first session). The following talks are scheduled: Kim Lauenroth is presenting 'A Processmodel for Wiki-based Requirements Engineering Supported by Semantic Web Technologies', followed by Haiko Cyriaks with 'Supporting Requirements Elicitation by Semantic Preprocessing of Document Collections', followed by Steffen Lohmann with 'Ways of Participation and Development of Shared Understanding in Distributed Requirements Engineering', and Thomas Riechert with 'Towards Semantic Based Requirements Engineering'.

The Session after the lunch break starts with Stefan Kröger from the University of Potsdam with 'Analysing Wiki-based Networks with SONIVIS. The main goal of the Project SONIVIS is (or at least one of the goals...) the Unterstanding of Emergence of Knowledge in Social Knowledge Spaces. As a tool, SONIVIS integrates analysis, evaluation, visualization, and data handling of wiki-based networks.
Rainer Hammwöhner from the University of Regensburg is next talking about 'Semantic Wikipedia -- Checking the Premisses'. For this reason, they took samples from (different multilingual versions of) wikipedia and tested, as e.g., if the wikipedia category system really is a sound taxonomy (...I would say 'no'!). As we already have thought, the category system makes inadequate use of hierarchies, and that the quality of different language versions varies. There seems to be a high amount of disagreement in the category systems of the different language versions.
Joshua Bacher from the Max Planck Institute for Evolutionary Anthropology is giving a Demo Talk on 'BoWiki' - a collaborative editor for biomedical ontologies, gene functions and annotations (originally derived from Semantic MediaWiki, but for being able to use reasoning SMW was given up).
The next demo is given by Marc Fleischmann entitled sMeet-Let's Meet real, a web platform to talk and to sozialice (in an synchronous way) just as in real life. sMeet constitutes a 3D Avatar based virtual community (just as 2nd Live), but connects the virtual world with the phone system....(really an entertaining presentation, I even saw my very first live iPhone...But, I`m missing semantics....). The phone system enables real mobility (a kind of ambient 2nd Live....and the phone system is also something that people are used to pay for) and with sMeet several heterogeneous communities are (at least planned) to be connected.
Richard Cyganiak closes the session with a presentation on 'DBpedia - a Nucleus for a Web of Open Data' providing more background information on the DBpedia project. In DBpedia, every item has an own URI. Simply take the wikipedia URI of an article and substitute '' by '' (here you might find the DBpedia resource named 'Leipzig'). Thus, DBpedia becomes a repository for Semantic Web identifiers.

The final event of today (before the conference diner) was a panel discussion on the topic 'Is there a Social Semantic Web?', in which I took part (therefore no live-blogging). I will refer to that in my next post....

Wednesday, September 26, 2007

CSSW 2007 - Conf. on Social Semantic Web in Leipzig - Sep 26th, 2007

For the next two days I'm going to participate at the CSSW 2007 (Conference on Social Semantic Web) in Leipzig.

The sessions will start at 10am. WLAN is working, live blogging in progress ;-)
Ok, I should not start complaining before it even starts. But, 195 Euros conference fee for 2 days (including allowance for being an 'active' participant) and you have to pay for refreshments in the conference breaks? Ok...we have also received some refreshment tickets...incredibly valuable...representing 5 Euros (of the 195 Euros conference fee)...but one glass of water (or one cup of coffee) is 1 Euro. This makes 5 glasses of water for two days. Anyway.......back to the conference ;-)

After a brief intro by the conference chair Sören Auer, the first talk is presented by Andreas Hees on 'Alternative Searching Services: Seven Theses on the Importance of Social Bookmarking' prommising an interesting combination of traditional search engine indexing and the use of taging. A major difference in both approches lays in the coverage of web pages. While search engines encompass almost up to 85% percent of the 'Surface Web', manual tagging only coveres about a fraction of that. This leads to

  • thesis 1: Limited but Growing Coverage (of Social Bookmarking Services).

  • thesis 2: A smaller index of Social Bookmarking Services does not mean less quality.

  • thesis 3: Less frequent update of Social Bookmarking indexes.

  • thesis 4: The larger the community the more likely users will find specific content

  • thesis 5: SBS are less prone to manipulation (remember the Google vs. BMW case...).

  • thesis 6: SBS are perceived to be more trustworthy than algorithmic search engines

  • thesis 7: Quality of assigned tags will improve

Ok...we all agree on the advantages that SBS do offer. to combine the traditional search engine results with SBS results. This raises issues concerning indexing, actuality, inconsistency, ranking, etc...
The presentation only offers some tag suggestion and tag auto correction 'how to get better quality tags'. This does not solve the general problem of combining both services.

Rico Landefeld is next, presenting 'Collaborative Web Publishing with a Semantic Wiki', presenting our SemanticWiki implementation Maariwa. One of the questions at the end of the talk concerned the very important topic of the extra 'effort' invested by the author that is necessary for the creation of semantic annotation. The benefit for all the other users is obvious, but for the author himself? Therefore, the extra 'effort' has to be minimized to the limit to make semantic annotation also attractive for the ordinary user.

Mohamed Bishr from the University of Münster concludes the session with 'Weaving Space and Time into the Web of Trust'. What is the influence of spatial dimension on trust? There is evidence of the effects of social network structures on trust as well as of geography on social networking. So the goal is a theory of the dynamics of trust in social networks with respect to the spatio-temporal regularities of the social networks.

The second session is more focused on Semantic Technology. In the first talk, Uldis Bojärs from DERI Galway ist talking about `A Prototype to Explore Content and Context on Social Community Sites`, the SIOC-Explorer ('you may call it RSS on steroids' Uldis says). SIOC (pronounces as shok) stands for Semantically Interlinked Online Communities is a W3C submission and is based on an ontology representing the process of social networking on the web (at the SIOC website there is even a wordpress plugin for your blog)....and with the SIOC Explorer SIOC data are crawled and aggregated for browsing and exploring. Furthermore it enables faceted browsing.

The next talk is on 'Adapting an ORDBMS for RDF Storage and Mapping' and is presented by Orri Erling. According to the title a native Relational Database System (Virtuoso) is adapted for RDF. Christian Weiske concludes the session with a talk on 'Implementing SPARQL support for RDBMS and possible enhancments'. To achieve this, a new SPARQL engine was developed and integrated into a database in a way that most of the work load will be accomplished by the database.

So far, so good...Lunch took place nearby in separate room of the Mensa (a review will soon available at küchenschreck and -- the world is small -- I've made some new enjoyable acquaintance, also coming from Potsdam. The afternoon session starts with an invited talk of Hans Hartmann with the topic 'SOA for IT? Hype, Trap, or Hoax?'. First of all, there is a SOA Hype, nobody can deny that. For an illustration, Hartmann compares tha SOA Hype with the excitement of an Austrian radio soccer reporter "....Tor! Tor! Tor! Tor! Tor! - I werd' narrisch! Krankl schießt ein, 3:2 für Österreich" (here you may find the original audio file as mp3).

Next, there is the afternoon's poster (+ demo) session with 5 short presentations. Santtu Toivonen from VTT talks on 'Mobile Social Media - General Characteristics and Interfaces with the Semantic Web'. He starts with a general review on Social Networking Companies and organizes them according to their underlying business models....but in the end, there are no mobile semantic web applications arround.alt least not yet. Next talk on 'Galaxy: IBM Ontological Network Miner' is given by John Judge working at project NEPOMUK (remember the semantic desktop...). I guess I have reviewed this paper...but it has left no remarkable impression so far. Next, Andreas Walter from FZI Karlsruhe on 'IMAGENOTION: Collaborative Semantic Annotation of Images and Work Integrated Creation of Ontologies' being motivated by Image based navigation in Multimedia-Archives. An Imagenotion represents a semantic notion graphically through an image, aggregating synonyms, Labels, links to web pages and other kinds of annotations. In the end, Imagenotions -- if I have got this right -- should ripe (= Ontology Maturing) to real ontologies). Finally....a live presentation (c.f. The last talk is presented by Philipp Heim from the University Duisburg-Essen on 'Semantic Integrator- Semi-Automatically Enhancing Social Semantic Web Environments.

As my battery is slowly fading away, this was the last paragraph for today (as being also the last talk). There is a 'Sächsischer Abend' announced in the conference schedule and as for my train is leaving at about 7pm, I still have some time left to take a drink. See you tomorrow ;-)

Tuesday, September 25, 2007

XML-Tage 2007 in Berlin - Tag 2 und Resumé

Dienstag, der Sommer scheint endgültig vorbei. Nach einem letzten Aufbäumen in den vergangenen Tagen -- gestern hatte man in Berlin noch einmal den Eindruck, als wäre es gerade Hochsommer. Jede Grünfläche, jede freie Bank in der Sonne und am Wasser wurde 'besetzt', überall saßen die Menschen noch bis spät in den Abend bei lauen Temperaturen. Und heute morgen....alles grau in grau, es wird nicht richtig hell und es nieselregnet so vor sich hin...
(Bild: Apotheose des Antonius...aus einem Treppenaufgang im Seitenflügel der HU Berlin...ich liebe diese klassizistischen Universitäts-'Tempel')

Aber...perfektes Wetter, um den ganzen Tag in mehr oder minder interessanten Vorträgen zu verbringen ohne den permanenten Drang, das ach so perfekte Wetter zu nutzen. Allerdings waren die im Rahmen des wissenschaftlichen Programms angekündigkten Vorträge heute nur von sehr geringem Interesse. Ich werde sie hier zwar nennen, aber nicht näher darauf eingehen:
  • Semantic Registries - Cataloguing eGovernment Resources, M. W. Küster (FH Worms)

  • Applying GRIPP to XML Documents containing XInclude, S. Trißl, F. Zipser, U. Leser

  • Applying the Operational Hierarchy Concept to XSLT, D. Foetsch, E. Pulvermüller

  • Analysis on Inference Mechanisms for Schema-Driven Forms Generation, J. Spillner, A. Schill

  • XML-Strukturen für Worterklärung von Verben, G. Büchel

Statt an den wissenschaftlichen Vorträgen weiter teilzunehmen, habe ich mich in eines der parallel stattfindenden Wirtschaftsforen mit hinein gesetzt und habe mir einen Vortrag von W. Bernhardt vom Bundesministerium der Justiz zum Thema 'Arbeiten mit strukturierten Daten im grenzüberschreitenden Rechtsverkehr' angehört. Der Zweck ist klar: Die Schaffung der Möglichkeit einer grenzüberschreitende (juristischen) Recherche. Dazu wäre es natürlich wünschenswert, wenn sich entsprechende Daten entweder (regelbasiert) ineinander automatisch übersetzen lassen bzw. wenn (zumindest etwa europaweit) standardisierte Daten und Datenformate genutzt werden könnten. Probleme, die dabei auftreten wären Inkonsistenzen, mit denen gerechnet werden muss, wenn Daten redundant (doppelt) gehalten werden und die nur schwierig zu realisierende permanente Aktualisierung dieser Daten. Das Ganze wurde mit Beispielen aus dem Bereich Strafrecht, Wirtschaft und Bankenwesen verdeutlicht. Zusätzlich erschweren auch noch unterschiedliche nationale rechtliche Einschränkungen die grenzüberschreitende Nutzung dieser Daten. Erfrischend, einmal einen solchen Vortrag aus direkter 'Anwender'-Sicht zu hören.

Leider kann ich morgen nicht mehr an den angekündigten Foren zum Thema 'E-Health' und 'E-Government' teilnehmen (Immerhin habe ich Matthias und Justus Bescheid gegeben, dass die Teilnahme an den Wirtschaftsforen kostenlos ist...).

Tja....zusammenfassend, wie soll ich diese Konferenz (nach der Enttäuschung mit der DeLFI 2007 in der vergangenen Woche) werten? Gestern gab es immerhin zwei Vorträge, die ich 'hinreichend' interessant fand. Neues bzw. neue Anregungen hat mir das Ganze leider wieder nicht gebracht. Dazu schien das wissenschaftliche Programm mit gerade einmal 10(+2) Vorträgen (!), die sich über das gesamte Themenspektrum 'XML' bewegten, leider ziemlich 'dünn' geraten. Vom rein wissenschaftlichen Standpunkt aus, rentiert sich eine Teilnahme (zumindest für uns) nicht. Die Wirtschaftsforen dagegen bringen schon etwas interessantere Themen (zudem ist die Teilnahme kostenlos). Zu den Wirtschaftsforen zählen auch die im Foyer der HU Berlin postierten Aussteller- und Informationsstände. Dort habe ich gestern auch Kollegen von Hylos getroffen, die mit einem eigenen Stand präsent waren. Bei einer kurzen Unterhaltung ergab sich allerdings, dass gerade einmal 2 (in Worten 'zwei') interessierte Konferenzteilnehmer an den Stand kamen (so dass sich die Präsenz dort nicht wirklich rentierte...).

Fazit: Sollte ich im kommenden Jahr wieder Zeit haben, um hier vorbeizuschauen, werde ich mich wahrscheinlich lediglich zu den Wirtschaftsforen anmelden und nicht am wissenschaftlichen Programm teilnehmen.
Morgen geht es weiter in Leipzig mit der Conference on Social Semantic Web über die hier natürlich wieder berichtet werden wird...

Monday, September 24, 2007

XML-Tage 2007 in Berlin, 24.09.2007 - Tag 1

Die kommenden zwei Tage werde ich mich auf den XML-Tagen 2007 in Berlin aufhalten und täglich live aus dem wissenschaftlichen Programm hier aus dem historischen Hauptgebäude Unter den Linden berichten. Wobei....der Tag fängt ja schon gut an, ich komme -- natürlich -- etwas später, verpasse die Begrüßung, den ersten eingeladenen Redner und die erste Vormittagssession und komme gerade rechtzeitig zur Kaffeepause um 11 Uhr. Hier hoffe ich Rico zu treffen, der unser Paper 'Maariwa - Ontologie-basiertes Web-Publishing mit einem Semantic Wiki' am Nachmittag vorstellen wird....

Na perfekt, das wissenschaftliche Programm macht erst einmal von 11 Uhr bis 13.30 Uhr Pause....und Rico ist noch gar nicht da, sondern übt seinen Vortrag -- hat aber versprochen, bis 15 Uhr hier zu sein. Naja...MIttagessen gibt es dann im 'Cum Laude' und dann werde ich mal sehen, ob sich hier irgendetwas interessantes bis zum frühen Nachmittag abspielen wird....

O.k., ich hab doch noch eine 'sinnvolle' Beschäftigung gefunden. Im Senatssaal findet eine Podiumsdiskussion zum Thema 'Wachstum durch Cluster' statt. Hans Peter Hiepe vom Bundesministerium für Bildung und Forschung, Dr. Joachim Quantz und Reiner Thiem von xmlcity:berlin, Dr. Carsten Rudolph von Microsoft und Prof. Jochen Schiller, Vizepräsident der FU Berlin. Nach einer kurzen Einleitung und Vorstellung der Teilnehmer durch Herrn Thiem äußern sich zunächst alle Teilnehmer der Podiumsdiskussion zum Thema 'Innovationsförderung'. Obwohl -- so Prof. Schiller -- an den deutschen Hochschulen verstärkt gegründet wird (insbesondere auch an der FU Berlin), geht -- so Dr. Rudolph -- die Anzahl der Firmengründungen an Universitäten insgesamt zurück. Herr Hiepe kritisiert die an den Hochschulen übliche Praxis, Gründungsinitiativen -- wie das durch ihn initiierte EXIST Programm (von dem ja auch OSOTIS profitiert hat) -- zu sehr wie ein akademischer Aufgabenkatalog im Rahmen einer Art Weiterqualifizierung abgehandelt werden. Kritik an den Existenzgründungsinitiativen und Programmen wird am jeweils zu starren zeitlichen Rahmen geäußert, den diese unterliegen. Das EXIST-SEED Programm fördert -- ohne anschließende Evaluation -- jedes Projekt, das sich dafür qualifiziert für genau ein Jahr. Wie sich das zu gründende Unternehmen danach finanziert, darum muss sich das Unternehmen selbst kümmern. Leider gibt es viele Projekte, die weitere 6 Monate Entwicklungsarbeit benötigen, die leider nicht weitergefördert werden können. Hier wäre auch meiner Meinung nach Bedarf, nach einer entsprechenden Evaluation die Möglichkeit einer Weiterförderung einzuräumen.

So...leider herrschte im lokalen WLAN seit dem M ittagessen Funkstille....soviel zum Thema Live-Blogging. Nun ja....hier also mein Bericht von unserem Nachmitteg:

Lutz Suhrbier (FU Berlin) 'Vertrauenswürdige Aussagen im Semantic Web'
Vertrauen ist -- laut Niklas Luhman - nichts anderes als eine Art Mechanismus zur Reduktion sozialer Komplexität. Man leistet eine Art 'riskante Vorleistung' als potentiell unsichere Investition in die Zukunft. Nachdem dieser Begriff geklärt wäre, benötigt man für das Thema noch das 'Semantic Web' (als Anwendungsraum) und die 'Inferenz' oder das 'Reasoning', dass uns in die Lage versetzt, aus vorhandener Information neue Information zu schließen. Das eigentliche Problem reduziert sich dann darauf, wie eine Absicherung der im Semantic Web befindlichen Aussagen getroffen werden kann -- und welche Auswirkungen hat dies auf die Verlässlichkeit von daraus hergeleiteten Aussagen?
Lösungsansätze sollten dabei Autorenbezogen sein. Dazu muss als erstes zweifelsfrei zugeordnet werden können, Aussage X ist von Autor Y getroffen worden. Das ist nur möglich, wenn jede Aussage (und jeder Autor) einen persistenten Bezeichner (also z.B. einen URN) besitzt. Daraufhin hat dann auch jeder Benutzer Z die Möglichkeit, eine von Y getroffene Aussage zu bestätigen oder nicht. Zudem kann eine Aussage auch von einer über jeglichen Zweifel erhabenen Instanz (also einer Art 'Trust-Center') beglaubigt werden. Darauf aufbauend wurde ein Konzept einer 'Trusted Semantic Web Infrastructure' inklusive 'Semantic Web Zertifizierungsstelle' und 'RDF-Zertifikaten' vorgestellt....allerdings eben nur als Konzept und nicht im Sinne einer konkreten Implementation. Also....irgendwie war mir das alles bereits bekannt bzw. war die Übertragung auf das Semantic Web 'straightforward'.

Um 15 Uhr sollte ja eigentlich Ricos Vortrag starten -- nur fand sich kein Session-Chair. Also wurde gut 10 Minuten gewartet und daraufhin eröffneten wir als Teilnehmer die Sitzung kurzerhand selbst. Rico stellt dabei das Ergebnis seiner Diplomarbeit -- eine SemanticWiki-Implementierung mit Namen 'Maariwa' vor. Nach einer Analyse bereits vorhandener Ansätze wurde nach den Schlüsselkriterien gesucht, die einen guten Kompromiss zwischen semantischer Ausdrucksstärke und Benutzbarkeit (auch und vor allem durch Nicht-Experten) ausmachen. Das Ergebnis ist eine graphische Benutzeroberfläche (keine eigene Wiki-Sprache), entsprechende Import-/Export-möglichkeiten, und eine möglichst einfache - wobei aber durchaus semantisch ausdrucksstarke Abfragesprache, um 'Wissen' aus dem SemanticWiki herauszuziehen.

Im Anschluss trägt Stefan Thalmann von der Universität Innsbruck zum Thema 'Kollaboratives Tagging zur inhaltlichen Beschreibung von Lern- und Wissensressourcen' vor. Zunächst wird auf die unterschidlichen Varianten der Metadatengenerierung eingegangen. Während subjektive Metadaten wie Schlagworte oder Bewertungen nur schwierig oder gar nicht auf automatische Weise zu gewinnen sind, lassen sich objektive Metadaten (Charakteristika) relativ einfach automatisch gewinnen. Danach wird auf das 'Tagging' eingegangen. Allerdings unterscheidet Thalbach lediglich zwischen allgemein anerkannten 'objektiven' Tags und persönlichen 'subjektiven' Tags und verzichtet auf eine weitere Untergliederung in objektive und funktionale Tags, wobei hier objektive Tags inhärente Eigenschaften und Charakteristika der Ressource kennzeichnen, während funktionale Tags stets in einem speziellen Kontext stehen. Eine nachfolgende Studie, in der Studierende mit Taggingaufgaben betraut wurden, brachte meines Erachtens aber auch keine bahnbrechenden neuen Erkentnisse.

So...kurze Nachbesprechung/Maneuverkritik mit Rico, E-Mails beantworten (da das Netz wieder funktioniert, Bloggen, und warten auf das 'Networking am Buffet'...
Apropos Buffet: dieses war zwar recht lecker (immerhin gabe es guten Wein und ein leckeres kaltes Buffet), aber mit dem Networking haperte es dann doch, da vielleicht höchstens 20-30 Leute vom heutigen Tag übrig geblieben waren. Insgesamt hatte ich auch den Eindruck, dass die Teilnahme gegenüber letztem Jahr diesmal sehr gering ausfiel.

Friday, September 21, 2007

Everybody DOS now....

Words fail me....
Just take a look at this vintage MS-DOS advertisement video clip...

'everybody DOS now...'

Now with 384K extra available RAM....Really I remember those days, but it seems to be ages away. Thank god I have my Mac....

[via MissM@rple's Blog]

DeLFI 2007 in Siegen - Nachlese

Wieder zu Hause stellt sich -- wie nach jedem Konferenzbesuch -- die Frage, was hat es gebracht? Zuallererst einmal eine 'fette' Erkältung, mit der ich heute morgen aufgewacht bin. Die eiszeitliche Klimatisierung der Hörsäle an der Uni Siegen, der man auch nicht durch einen beliebigen Sitzplatzwechsel aus dem Weg gehen konnte, fordert seinen Tribut. Vielleicht waren deswegen die Vorträge auch immer so spärlich besucht -- wobei wir ja schon beim Thema wären. Angeblich - so zumindest die Aussage des Co-Chairs bei der Ansprache während des Konferenz-Dinners - wären ja knapp 100 Teilnehmer alleine zur DeLFI angemeldet gewesen. Aber abgesehen von den Vortragenden (und das waren 23 Vortragende und eine Handvoll Posterpräsentationen) habe ich nicht wirklich viele Teilnehmer zählen können. Von den o.g. 23 Vorträgen waren für mich (einschließlich unseres eigenen) maximal 3.4 (wenn ich seeehr großzügig bin) interessant. Von den Themen (siehe hierzu auch die anderen Postings zur DeLFI 1 / 2 / 3) bot diese Veranstaltung wenig Neues. Ergebnisse von Evaluationen und Studien (jeweils wenig repräsentativ und manchmal mit recht fragwürdigen Schlüssen und Ergebnissen -- zumindest erschienen mir diese nicht ernsthaft hinterfragt worden zu sein), Detailverbesserungen in Nischen und ein oder zwei technisch ganz interessante Entwicklungen. Ich frage mich aber, wie sich ein nicht unwesentlicher Teil der Arbeiten für die Veranstaltung qualifizieren konnte. Liegt es vielleicht daran, dass aus dem e-Learning-Hype der vergangenen Jahre endlich 'die Luft heraus ist' ? Oder etwa daran, dass Didaktiker und Informatiker doch nicht die selbe Sprache sprechen...? Auch drängt sich manchmal der Gedanke auf, dass die 'Alteingesessenen' nur ihre Pfründe sichern wollen. Auch scheint es, dass der Blick über die Grenzen des Fachgebiets hinweg oftmals zu kurz kommt (-> zum Thema Logfileanalysen kann man ruhig mal den Leuten vom Information Retrieval und Data Mining über die Schulter blicken....bei der Navigationsanalyse sollte man sich mal die Methodik und die Ergebnisse der Usability-Gemeinde zu Gemüte führen...bei der Videosegmentierung sollte man sich nicht nur auf einen Spezialfall, der den Autor an der 'kurzen Leine hält' festlegen...Aber ich möchte dabei auf keinen Fall den Autoren zu nahe treten, sondern vielmehr an die Gutachter appellieren!).

Nunja, inhaltlich haben wir leider nichts dazugelernt. Zum Glück haben wir aber dennoch einige neue, interessante Kontakte knüpfen können und wir freuen uns schon auf eine mögliche Zusammenarbeit. Aber ob wir im kommenden Jahr wieder einreichen werden scheint mir eher unwahrscheinlich. Sollten wir uns neben unseren Kernthemen wieder dem Schwerpunkt e-Learning widmen, dann wahrscheinlich auf einer der internationalen Konferenzen mit eher technischer als didaktischer Ausrichtung.

Die Schönheit Siegens -- folgt man den Worten des Co-Chairs während des Konferenz-Dinners -- erschließt sich 'ja eher auf den zweiten Blick'. Dem kann ich spontan zustimmen. Zumindest gilt dies unwidersprochen für den Umkreis rund um den Bahnhof der Stadt. Erst am letzten Tag lernten wir die Oberstadt mit der historischen Altstadt, d.h. dem Schloss, Rathaus und Nikolaikirche kennen (-> hier gibts eine Menge Fotos von Siegen), so dass wir uns letztendlich etwas versöhnlicher auf die Heimreise begeben konnten.

Nächste Woche werde ich live von den XML-Tagen 2007 in Berlin und von der CSSW 2007 (Conference on Social Semantic Web) aus Leipzig berichten....

Thursday, September 20, 2007

DeLFI 2007 in Siegen am 20.09.2007 - Tag 3

Der dritte und letzte Tag auf der DeLFI 2007. Die erste Session (FP5 - Kollaboration) heute ist gleichzeitig auch für uns die wichtigste (...nicht nur, weil Jörg jetzt gleich hier vortragen wird). Nein, es geht um Kollaboration im weitesten Sinne und Projekte, die in diesem Zusammenhang vorgestellt werden (nicht wieder seltsam unzureichende Evaluationen...).

Dominik Niehus von der Universität Paderborn berichtet über "Ein Framework für kooperative Arbeitsumgebungen - Objektorientierte Wissensstrukturierung und Einsatz in der Praxis". Es geht also um das Strukturieren (Kategorisieren) von Wissensobjekten in virtuellen Wissensräumen. Das einzige, was mich etwas dabei stört ist wieder die Verwendung des Hype-Begriffes 'Semantik', und zwar hier im Zusammenhang mit 'graphisch-semantischen' Arrangieren. OK...indem ich ein Objekt in inrgendeiner Kategorie einordne (hier eben graphisch interaktiv in einem virtuellen Wissensraum), dann gebe ich dadurch diesem Objekt natürlich eine bestimmte Bedeutung....und da kommt auch schon das Wort 'Semantik' ins Spiel. Aber abgesehen davon, dass dieser Begriff in letzter Zeit zu oft und eben als 'Buzzword' auftaucht, gefällt mir die grafische Umsetzung, die hier vorgestellt wurde ausgesprochen gut und das auf Eclipse basierende Framework werde ich auf alle Fälle einmal genauer unter die Lupe nehmen....

Andrea Kienle vom Fraunhofer IPSI berichtet im Anschluss "Zur Gestaltung der Aushandlungsunterstützung in CSCL-Systemen". Anhand der Zusammenfassung der Evaluation (sic!) dreier Studien sollen Designprinzipien zur Unterstützung von Aushandlungsfunktionen in CSCL-Systemen.

Als nächstes steht "Kontextualisierte Kooperationsinitiierung zur Unterstützung arbeitsplatzorientierten kollaborativen Lernens" vorgetragen von Martin Wessner von der LMU München auf dem Programm. Es geht dabei um das Lernen am Arbeitsplatz und wie ich dabei passende Kooperationspartner finden kann. Implementiert wurde das Ganze im Rahmen des EU-Projekts APOSDLE.

Über Jörgs (Jörg Waitelonis, Friedrich-Schiller-Universität Jena) Vortrag "OSOTIS – Kollaborative inhaltsbasierte Video-Suche" brauche ich ja eigentlich gar nicht mehr viel zu schreiben (siehe Podcast University Osnabrück), nur dass heute der Schwerpunkt des Vortrags nicht nur auf der Vorstellung unserer Suchmaschine OSOTIS liegt, sondern vielmehr auf den Aspekten der kollaborativen Anotation zeitabhängiger Multimediadaten (wie eben Vorlesungsaufzeichnungen). Anwender (Studenten), die sich diese Vorlesungsaufzeichnungen ansehen, haben die Möglichkeit, diese entsprechend ihren Interessen zu anotieren. Einmal als Ganzes in Form einer Wiki und zum Anderen auch direkt an bestimmten Stellen der Aufzeichnung in Form einfacher Schlüsselwörter (Tags), aber auch durch das Anheften komplexerer Inhalte wie z.B. Diskussionen. Dadurch hat etwa ein Dozent die Möglichkeit, an bestimmten Stellen seines Vortrags Kontrollfragen oder Diskussionsanregungen einzubauen, auf die Studenten dann antworten und diskutieren können.

So...ich glaube, dass wars für mich, was das Tagungsprogramm angeht. Über die Tagung ganz allgemein, die Organisation und die 'sonstigen' Highlights werde ich aber noch berichten...

Wednesday, September 19, 2007

DeLFI 2007 in Siegen am 19.09.2007 - Tag 2

Um den gestrigen Tag noch einmal kurz zusammenzufassen, war ich -- ehrlich gesagt -- ein wenig enttäuscht. Einerseits aufgrund der geringen Teilnehmerzahl, andererseits auch aufgrund der Qualität der Vorträge. Einfache, oft nicht repräsentative Statistiken (bis hin zu 'Logfileauswertung' mit trivialen (subjektiven) Schlussfolgerungen) vertragen sich nicht unbedingt mit meinen Erwartungen an technisch ausgefeilte und innovative e-Learning Entwicklungen....

Aber naja, heute morgen am 2. Tag findet zeitgleich auch noch die "12. GI Fachtagung Informatik und Schule - INFOS 2007" statt. Mit einer stattlichen Teilnehmerzahl von knapp 200 fühlt man sich jetzt wenigstens nicht mehr ganz so verloren ;-) ... aber zurück zum Tagungsprogramm....

Der Vormittag (der DeLFI) startet mit Ludger Thomas vom Fraunhofer IESE und einem Vortrag zum Thema "Entwicklung rekonfigurierbarer Lern-Inhalte mit (edu) DocBook". Jeder Autor von Lerninhalten kennt das Problem. Das Neu-Erstellung ist jedesmal enorm aufwändig, so dass es naheliegt, aus bereits existierenden Ressourcen durch Wiederverwendung oder Adaption neue Inhalte zu erstellen. In diesem Zusammenhang zeigt Ludger Thomas auf, wie entsprechende Inhalte in re-konfigurierbarer Form nach dem Single-Source-Publishing-Ansatz mit Hilfe von (edu)DocBook erstellt und in multiplen Konfigurationen und Formaten ausgegeben werden können.

Im nächsten Vortrag sprach Christoph Rensing von der TU Darmstadt über "Das Authoring Management System EXPLAIN zur ganzheitlichen Unterstützung des Erstellungsprozesses von Trainingsmedien und WBTst" (..da mich der Vortrag auch nicht sonderlich interessierte, hier das zugehörige abstract).

Ebenfalls die folgenden Vorträge trafen nicht wirklich mein Fachgebiet. Die interessantesten Gespräche ergeben sich ja bekanntlich sowieso immer in den Pausen, auf die ich mich dann erst einmal konzentriert habe.

Am Ende des ersten Vortrags nach der Mittagspause entspannt sich eine interessante Diskussion. "...unser Admin installiert da mal was! – Zur Nachhaltigkeit von E-learning-Infrastrukturen – Eine Taxonomie" vorgetragen von Marc Steinbring von der Universität Paderborn, sorgt für einiges an Aufregung....da die vorgestellte Taxonomie (wir hatten das Thema ja schon kürzlich hier behandelt) ja eigentlich gar keine Taxonomie im strengen Sinne ist. Auf den Einwand einer Teilnehmerin hin, dass es sich doch vielmehr um eine Checkliste handelt kommt leider keine wirklich befriedigende Antwort ('Checklisten und Taxonomie sind doch irgendwie schon sehr vergleichbar...'). ist ja schon eine Taxonomie, allerdings hätte man sich mit der Erklärung, Benennung und den Beispielen etwas mehr Mühe geben können....Es geht doch nichts über eine grundsolide Informatikausbildung... einschließlich Wissensrepräsentationen ;-)

Als erstes interessiert mich in der Nachmittagssession aber der Vortrag von Leonore Schulze aus Osnabrück (wir erinnern uns an die Osnabrücker Podcast University) zum Thema "Gibt es mobiles Lernen mit Podcasts? - Wie Vorlesungsaufzeichnungen genutzt werden" (über das Thema hatte ich ja schon zur Podcast University berichtet). Aber.....glaubt man's..? Der Session-Chair leitet diesen Vortrag mit den folgenden Worten ein...'Für das folgende Thema sind wir hier alle schon eigentlich zu alt'. Wie bitte....geht's noch? Wenn man für neue Medien und der Diskussion um deren Einsatzmöglichkeiten in der Lehre zu alt geworden ist, was macht man dann auf dieser Konferenz?? Sollen wir hier denn immer wieder die selben alten Kamellen wiederkäuen?? Ich muss mich doch schon sehr über diese Tagung wundern........

Ok, es geht weiter mit der Best-Paper-Session und ich bin schon mal (positiv) gespannt, was uns erwartet...
Der erste Vortrag von Stefan Iske beschäftigt sich mit "E-Learning aus der Prozessperspektive". Dabei geht es um eine Untersuchung des Navigationsverhaltens von Nutzern in Hypertextdokumenten und darum, ob sich typische Muster der Nutzung ermitteln lassen. Irgendwie kam mir das Thema -- im Rahmen der Usability Forschung -- bereits bekannt vor.

Spannender war dann schon der nächste Vortrag von Stephan Knopf von der Universität Manheim über "EDL-Editor - Eine Anwendung zur automatischen Aufbereitung von Vorlesungsvideos". Dabei ging es um die automatische Segmentierung von Vorlesungsmitschnitten entsprechend der Kapitel und Unterkapitel des behandelten Stoffes. Zu diesem Zweck werden die Folien der Desktopaufzeichnung analysiert und entsprechende Schnittmarken vorgeschlagen. Großer Nachteil der vorgestellten Lösung ist in meinen Augen die Tatsache, dass dem Dozenten exakt vorgeschrieben wird, (1) dass er Kapitel und Unterkapitelüberschriften benutzen muss, (2) dass diese an einer bestimmten vorgegebenen Position stehen müssen und dass (3) zusätzlich noch Restriktionen bzgl. Schrift und Farbe gemacht werden. Folien OHNE Überschriften werden von der Software automatisch entfernt. Natürlich liefert der 'Editor' zunächst nur einen Vorschlag, d.h. ich kann die entfernten Folien wieder mit in ein Kapitel integrieren.....aber da wären wir ja wieder bei dem -- wie anfänglich als Motivation in Aussicht gestellt -- zu vermeidenden manuellen Aufwand....


Tuesday, September 18, 2007

DeLFI 2007 in Siegen, 18.09.2007

Die nächsten drei Tage werde ich von der DeLFI 2007, der 5. e-Learning Fachtagung Informatik an der Universität Siegen, auf der Jörg ein paper von uns präsentieren wird...aber dazu später.
Die Anreise nach Siegen (wo liegt überhaupt Siegen)...."bei Giessen" war die Antwort, die mich weiterhin im Dunkeln tappen lies) gestaltete sich als etwas schwierig...zumindest, wenn man in Betracht bezieht, dass wir zu nachtschlafender Zeit den ICE bestiegen, den ersten Anschlusszug nur mit Mühe und Not erreichten und zudem fasst noch vor Wetzlar in die falsche Richtung abgekoppelt wurden...
Aber zurück zur Tagung. Den ersten Tag mit den Workshops und dem Eröffnungsempfang hatten wir außen vor gelassen. Heute (Dienstag) kamen wir gerade rechtzeitig, um noch einen Teil des Vortrags von Nadine Ojstersek von der Universität Duisburg-Essen zum Thema "Organisation tutorieller Betreuung beim E-Learning". Aber irgendwie haben wir von diesem Vortrag nicht mehr viel mitbekommen, so dass ich mich eher dem zweiten Vortrag von Serge Linckels vom HPI Potsdam zum Thema "Bessere Schulnoten mit MatES, dem e-Bibliothekardienst für den Mathematikunterricht". Darin stellt Serge MatES vor, eine Art Suchmaschine, die über die Eingabe einer Frage in natürlicher Sprache (natürlich thematisch eng begrenzt auf den Mathematikunterricht der 8. Schulklasse und das Bruchrechnen) auf passende Videoclips abbildet, die die Frage klären sollen. Interessant dabei, die entsprechenden Videoclips, die die mathematischen Sachverhalte erklären, wurden auch von Schülern produziert (Wer mehr darüber erfahren will, ich hatte zu einem analogen Vortrag im Rahmen des 2. TeleTask-Symposiums bereits berichtet).

Die Mittagspause machte uns mit der Mensa der Siegener Universität vertraut...meine gesammelten Erfahrungsberichte diesbezüglich kann man demnächst im Küchenschreck nachlesen.

Der Nachmittag beginnt mit kurzen Posterpräsentationen (jeder Redner kann sein Poster in knappen 5 Minuten vorstellen). Irgendwie ist hier ziemlich wenig los, d.h. ich hatte mir vorgestellt, hier auf mehr Teilnehmer zu treffen. In den einzelnen Sessions sitzen vielleicht 20-25 Teilnehmer, lediglich in der Kaffeepause schienen es etwas mehr zu sein...

Naja, zum Thema passt dann ja der erste Vortrag der Nachmittagssession von Klaus Wannemacher aus Hannover mit dem Titel "Anreizsysteme zur Intensivierung von E-Teaching an Hochschulen". 'Von E-Teaching' bezieht sich hier einerseits auf die Akzeptanz der Lehrenden, E-Teaching Systeme einzusetzen und andererseits, die Akzeptanz der Lernenden, diese E-Teaching Systeme auch zu nutzen....und dann wäre da auch noch die Hochschulleitung. Qualitätsverbesserung der Lehre oder Qualitätssteigerung des Studiums wären zumindest die Hoffnungen (Erwartungen) der Hochschulleitung. Eine Anrechnung auf die Lehrverpflichtung oder aber auch monetäre Anreize wie Förderprogramme und Preise (z.B: der Medida-Prix) wären eine mögliche Motivation für die Lehrenden.

Christoph Hermann von der Universität Freiburg stellt eine Studie zur 'logfilebasierten Evaluation des Einsatzes von Videoaufzeichnungen' vor. Zu diesem Zweck wurde ein einfach zu bedienendes (als auch für Dozenten) Werkzeug zur Logileanalyse erstellt. Analysiert wurden die Logfiles der Vorlesungsaufzeichnungen bzgl. Zugriffe aus dem Universitätsnetz (was die Nutzergruppe entsprechend einschränkt...bzw. nicht berücksichtigt, ob Studierende diese Videoaufzeichnungen auf von zuHause aus ansehen).
Ziel der Auswertung war es dabei festzustellen, welche Videoformate bevorzugt werden, ob Aufzeichnungen mit/ohne Dozentenvideo bevorzugt werden, ob auf das Archiv zugegriffen wird, gibt es besondere Zugriffszeitpunkte, die mit besonderen Ereignissen korrellieren?
Ok...Logfileanalyse ist jetzt (im wissenschaftlichen Sinne) nicht gerade das spannendste Thema. Natürlich möchte man als Anbieter gerne wissen, wie das Angebot genutzt wird, um es verbessern zu können. Die Einsichten, die hier allerdings gewonen wurden ('um Weihnachten herum erfolgten weniger Zugriffe, die Studenten scheinen sich eine Pause zu gönnen...') lasse ich jetzt hier einmal unkommentiert stehen.

[more to come....]

Saturday, September 15, 2007

Taxonomy .... really it's a battleground

Taxonomy as a science has been founded by the 18th century Swedish botanist Carl Linné (later enobled Carl von Linné or more fashionable in Latin Carolus Linnaeus). He was born in 1707 (we are celebrating his 300th birthday!!) and after some difficulties to start (he was a rather sluggish student and his dissapointed father saw no other option than to apprentice him to a cobbler...Linné soon realized that academia might not be the worst choice and begged for a second chance, which was granted) he studied medicine in Sweden and Holland. But, his passion should become nature and all living things. He started to write catalogues of the world's plants and animal species, using a system devised by his own, which lead to his great Systema Naturae and made him famous. He is reported not being the most modest man of his time. He even suggested that his grave stone should bear the inscription Princeps Botanicorum (similar to the title having been granted to Carl Friedrich Gauss, the Prince of Mathematicians).

Linné classified all living things on earth according to its physical attributes. The idea is to categorize everything hierarchically. A certain species belongs to a special genus, several genera belong to a special family, which is further summarized in orders, classes, subphyla, phyla, kingdoms, and domains. So, e.g., man is of the genus Homo and of the species Sapiens. We belong to the family of Hominidae, which is part of the order Primates, which belong to the class Mammalia, which belong to the subphylum Vertebrae, belonging to the phylum Chordata. Furthermore we belong to the kingdom animalia and the domain eucaria. This is the Taxonomy we use today. At the times of Linné genus and species were already in use for about a hundred years, the term phylum (being adapted from the Greek φυλαί [phylai], the clan-based voting groups in Greek city-states) has first been coined by one of our local heroes (remember, I'm working at the University of Jena) Ernst Haeckel in 1876.

Although the system of taxonomy seems to be pretty straightforward, the trouble is to determine how many categories to divise from each section above. Even at a such basic level as phylum, which determines the very basic building plans of organisms, Wikipedia refers to 35 phyla, other biologists opt for a total of about thirty, others for even less. The American entomologist Edward O. Wilson actually votes for 89 phyla. So, where to decide the divisions...?
The other problem is double entries. There are, e.g., more than 5000 species of grass -- all of them looking rather similar. Some of them are reported to being inserted in taxonomy under about twenty different names independently by different scientists.

So, the general trouble seems to be common agreement. Common agreement is a fundamental principle of ontologies -- and taxonomies are a form of lightweight ontologies. There are millions of species populating our planet. Taxonomy is the prime tool to put (some) order in this diversity. Linné introduced his system in the early 18th century. For more than 200 years now biologists are trying to work on an unambiguous and consistent classification scheme and try to populate it a consistent way. Still today they have not finished. Besides some quarrels there is a vast ammount of species that has not been discovered now. So, the work being invested into the science taxonomy will continue...and who knows if it will ever end....
Thinking of ontologies and the Semantic Web, I think we are in some similar situation as biology has experienced during the last 200 years. Computer scientists are quarrelling about top level ontologies and there are many independently developed (overlapping and ambiguous) domain ontologies. Ontological Engineering -- including ontology mapping, ontology alignment, and ontology merging -- tries to find some way to get along even with inconsistencies...

BTW, ontology mapping then should also find a way to map Linné's taxonomy to Jorge Luis Borges "The Analytical Language of John Wilkins," where he describes 'a certain Chinese Encyclopedia,' the Celestial Emporium of Benevolent Knowledge, in which it is written that animals are divided into:
(1) those that belong to the Emperor,
(2) embalmed ones,
(3) those that are trained,
(4) suckling pigs,
(5) mermaids,
(6) fabulous ones,
(7) stray dogs,
(8) those included in the present classification,
(9) those that tremble as if they were mad,
(10) innumerable ones,
(11) those drawn with a very fine camelhair brush,
(12) others,
(13) those that have just broken a flower vase,
(14) those that from a long way off look like flies.

More on Carl Linné, taxonomy in biology, and 'nearly everything' you may find here:
- Bill Bryson: A Short History of Nearly Everything, Doubleday, 2003.

Thursday, September 13, 2007

OpenID for preventing digital schizophrenia

Everybody knows the problem. You are registering for the latest service on the web and you have to give them an username and a password. Signing up for new accounts is a pain. As well everybody knows that you shouldn'u use the same accounting information on more than one site. Simple reason....if anybody cracks your account, then you will be compromised everywhere. But there are so many services on the web. I guess, nobody is capable of memorizing so many different usernames and passwords. Are you...?

One solution to the general problem of identity management on the web is OpenID. OpenID is a decentralized mechanism for Single Sign On. For using OpenID-enabled sites, you do not need to remember traditional authentication tokens such as username and password. Instead, you only need to be registered on a website with an OpenID 'identity provider' (also referred to as 'i-broker'). Since OpenID is decentralized, any website can employ OpenID software as a way for users to sign in. The website will then redirect you to your OpenID provider to login using whatever credentials it requires. Once authenticated, your OpenID provider will send you back to the website with the necessary credentials to log you in. OpenID offers also strong authentication mechanisms such as Diffie-Hellman key exchange to be used for all types of transactions, both extending the use of pure single-sign-on as well as the sensitivity of data shared.

There is a nice presentation providing a good starting point for OpenID by Simon Wilson at SlideShare entitled 'Building the Social Web with OpenID'

[via Semantic Bits]

Wednesday, September 05, 2007

Podcast University Tagung in Osnabrück, 05. September 2007

Heute werde ich von der Podcast University aus Osnabrück LIVE berichten (zudem gibt es hier auch ein Blog zur Tagung).

Podcasts sind ja schon seit einigen Jahren in aller Munde. Aber Podcasts in der universitären Lehre (....oder eben 'Leere')? Zugegeben, aus Dozentensicht (insofern dieser sich versucht in die Lage des Studenten zu versetzen) eine geniale Idee. Die Vorlesung -- ungebunden von Raum und Zeit -- nacherleben, auch wenn man diese (auch welchen Gründen auch immer) verpasst haben sollte. Klingt prima. Aber.....wird es denn auch entsprechend genutzt? Oder laden sich die Studenten vielmehr die Vorlesungsaufzeichnungen vom Rechner und glauben (in Anlehnung an die Metapher mit dem Lehrbuch unter dem Kopfkissen), insofern diese sich erst einmal auf dem lokalen Verzeichnis des heimischen Rechners befinden, dann ist das ja schon die 'halbe Miete'. (Ich erwähnte ja schon in einem früheren Artikel, dass es noch keine wirklich aussagekräftige und valide Evaluation zum Thema Tele-Lecturing gibt). Nun denn, wollen wir mal hören, was die Experten heute dazu zu sagen haben...

  • Harald Selke (Universität Paderborn): Was gibt es neues? Einige Überlegungen zu Podcasts in der Lehre.
    Hier ging es um einen Bericht über den Einsatz von Podcasts in einer Grundstudiumsveranstaltung für Medienwissenschaftler, der Aufwand bei der Vor-/Nachbearbeitung, der Distribution und der Rezeption. Der Punkt Rezeption war natürlich (siehe oben) besonders interessant für mich, aber die zu Grunde liegende Daten-/Nutzerbasis leider entsprechend mager.

    Ein interessanter Punkt, der in der anschließenden Diskussion aufkam, drehte sich um den Effekt, dass Audio-Podcasts von Vorlesungen bei der Rezeption oftmals schnell langweilig und langatmig wirken (obwohl die Live-Veranstaltung im Gegenteil oft als interessant und lebhaft wahrgenomen wurde). Um die zugegebermassen 'magere' Aufmerksamkeitsspanne der Zuhörer zu bedienen, werden Audio-Podcasts hier auf 5-10 Minuten jeweils begrenzt, d.h. die zu grundeliegende Vorlesung wird in entsprechende Segmente (thematisch) unterteilt. Eine Verknüpfung (und Synchronisation) mit dem Vorlesungsskript (Handout/Transskript) ermöglicht dazu noch die Bereitstellung sogenannter 'Teaser' und 'Schlagzeilen', die auch kontextbasiert aus dem Podcast herausgelöst werden können (und dadurch weniger Zeit in Anspruch nehmen). Eine andere Lösung besteht darin, ein synchronisiertes Videobild mit anzubieten (...das den Zuhörer/Zuschauer entsprechend bei Laune halten soll).

  • Clemens Westerkamp (Fachhochschule Osnabrück): Mehr Flexibilität durch Podcast-Angebote
    'Hausgemachtes' Podcasting, Einsatzerfahrungen, technische Vor-/Nachbereitung von Podcast-Aufzeichnungen, gesammelt aus Sicht eines 'Anwenders'...Allerdings bezeichnet hier der Begriff 'Anwender' nicht den Podcast-Konsumenten, sondern den 'nicht-professionellen' Produzenten.

  • Rolf Kretschmann (Universität Stuttgart): Einsatzszenario Einführungsvorlesung "Grundlagen der Sportpädagogik und Sportdidaktik"
    Ebenfalls wieder ein Vortrag zum Thema 'Einsatzerfahrungen' in einem beschränkten Szenario (Grundlagen der Sportpädagogik) inklusive Evaluations(vorhaben), das entsprechend wieder nur selektive Aussagekraft besitzt.

  • Grit Matthias (Friedrich-Schiller-Universität Jena): Einsatzszenario im Fremdsprachenunterricht
    Im Rahmen eines Sprachkurses für Deutschlernende sollten die Teilnehmer Audio-Podcasts selbst produzieren. Eine 'Podcast-Werkstatt' mit dem Zweck, die kommunikativen Fähigkeiten sowie die Medienkompetenz der Lernenden zu fördern. Beispiele zu den von den Teilnehmern produzierten Podcasts sind hier zu finden.

  • Ralph Müller (Universität Frankfurt): Quo vadis Unicast?
    ...Leider hält der Vortrag nicht ganz, was das Abstract aus dem Tagungsprogramm verspricht (Achtung: 'Unicast' ist hier nicht 'Unicast im technischen Sinne einer Punkt-zu-Punkt-Verbindung' sondern ein Neologismus aus 'Universität' und 'Podcast' . Daher hier meine eigenen Gedanken zum Thema:

    Können Podcasts überhaupt den Ansprüchen der universitären Lehre genügen??
    Interessante Fragestellung. Meiner Meinung nach treffen hier (aber) zwei Welten aufeinander bzw. werden Äpfel mit Birnen verglichen. Interessante, unterhaltsam und professionell produzierte Podcasts stehen sicher im Widerspruch zur einfachen Aufzeichnung universitärer Lehrveranstaltungen. Zum einen vergleicht man hier elaborierte Studioproduktionen (Podcast), produziert zu einem ganz bestimmten Zweck und für ein 'Zielpublikum' mit Live-Events (universitäre Lehrveranstaltung, Zielpublikum sind Präsenzstudenten). Die Diskussion aus dem ersten Beitrag des Tages, warum (Audio-)Aufzeichnungen schnell langweilig und langatmig wirken (und das Live-Event nicht), liegt ganz einfach in der Natur der Sache. In der (Live)-Vorlesung wird der Inhalt (neudeutsch 'Content') für die Präsenzteilnehmer produziert. Das Charisma des Dozenten (und seine Interaktion mit den Studenten) kann in einer Aufzeichnung immer nur sehr schwer eingefangen werden. Zudem -- sucht ein Student Informationen zu einem ganz bestimmten Thema -- ist er mit einem 90 minütigen Exkurs, der das eigentlich (für den Suchenden) relevante Thema nur am Rande berührt, schlicht überfordert. Das (manuelle) Heraussuchen der relevanten Stellen bleibt mühsam.

    Eine Lösung besteht in der aufwändigen Nachbearbeitung der Podcasts: Segmentierung in möglichst kurze, thematisch fokusierte Abschnitte (leider nicht immer möglich). Was aber wäre, wenn die 90-Minuten-Datei inhaltsbezogen (automatisch) durchsuchbar wäre? Dazu muss entweder eine Transkribierung des Vortrags stattfinden bzw. eine Synchronisation des Vortrags mit zugehörigen Materialien, aus denen die inhaltlich wichtigsten Schlagworte indiziert werden können. Um bei der Web2.0-Metapher zu bleiben: warum nicht Audio-Podcasts von Live-Lehrveranstaltungen (temporär) taggen? ... und hier wären wir schon wieder einmal bei OSOTIS......

Zum Mittagessen ging es in die (laut Organisator 'innerhalb eines Wettbewerbs aller deutschen Mensen ausgezeichnete') Mensa....aber heute schien das nicht ganz der Tag der Osnabrücker Mensa gewesen zu sein....(mehr dazu in Kürze im Küchenschreck).

  • Andreas Groß (HPI Potsdam): tele-TASK -- Das komfortable Überall-Lernen
    Das tele-Task System zur Aufzeichnung und LiveStreaming von Lehrveranstaltungen wurde um eine Podcast-Komponente erweitert, d.h. die ursprünglich über SMIL synchronisierten einzelnen Video-Datenströme (Dozent + Desktop) werden in einen einzelnes h.264-File transkodiert (ohne zusätzlichen manuellen Aufwand), um auch auf portablen Abspielgeräten (wie z.B. natürlich dem iPod) wiedergegeben zu werden.

  • Markus Ketterl (Universität Osnabrück): virtPresenter/lernfunk
    Ähnlich wie das im vorangegangenen Vortrag vorgestellte tele-Task System handelt es sich bei virtPresenter um ein Flash-basiertes Vorlesungsaufzeichnungssystem (während tele-Task neben der vorgestellten h264-Lösung nur das RealMedia-Format unterstützt). Mit virtPresenter aufgezeichnete Vorlesungsveranstaltungen werden automatisch in das Stud.IP Kursmanagementsystem der Universität Osnabrück eingetragen und zusätzlich über das Portal zur Verfügung gestellt.
    Interessanter Aspekt, der am Ende des Vortrags aufgegriffen wurde: "Videos ins Netz stellen ist nichts neues.....nur heisst das jetzt 'Podcast'...". Die Frage ist (a) was bringt es tatsächlich den Lernenden und (b) was bringt es den Dozenten? Wenn Vorlesungsaufzeichnungen über ein Portal aggregiert werden, wie kann dann eine Bindung zur jeweiligen Hochschule gewährleistet werden? Eine Möglichkeit besteht z.B. darin, Video-Trailer zu den einzelnen Hochschulen oder aber auch zu den Dozenten selbst zu produzieren, an die die jeweils aufgerufene Vorlesungsaufzeichnung angehängt werden.

  • Bianca Drefahl, Uwe Pirr (Humboldt-Universität Berlin): Humboldt-Podcampus
    Der Computer- und Medienservice der Humboldt-Universität Berlin baut im Projekt 'Humboldt-Podcampus' einen universitätsweiten, komfortabel und möglichst einfach zu bedienenden Podcast-Dienst auf, der in bestehende Lernmanagementsysteme (Moodle) integriert wird.

  • Jörg Waitelonis (Friedrich-Schiller-Universität Jena): OSOTIS - Web 2.0 Plattform zum Arbeiten mit Vorlesungsaufzeichnungen
    Jörg schlägt zur Einführung den Bogen von den Anfängen der Universität (im Mittelalter) zu modernen Lösungen des tele-teaching und distance-lerning, geht danach auf die Problematik der automatischen und kollaborativen Annotation von Vorlesungsaufzeichnungen ein, um schließlich OSOTIS als 'Vorlesungs-Suchmaschine' detailliert vorzustellen. Über OSOTIS wurde in diesem Blog ja schon öfter berichtet, daher brauche ich an dieser Stelle ja nicht weiter auszuholen...

  • Olaf Schulte (ETH Zürich): Jenseits des Hype - Vom Podcast zum Multimedia-Portal
    Wieder das Thema 'Podcasting vs. universitäre Lehre'. Nach einer kurzen (allgemeinen) Vorstellung der Multimedia-Services an der ETH Zürich wird das Multimedia-Portal REPLAY thematisiert. Unter REPLAY werden sämtliche Phasen der Erstellung, Distribution und Rezeption der Aufzeichnung von universitären Veranstaltungen integriert und dabei weitgehend von vollautomatischen Werkzeugen unterstützt.

    Zu meiner persönlichen Freude nahm Olaf am Ende seines Vortrags das zu Anfang zitierte Thema wieder auf, indem er sprichwörtlich den Finger in die offene Wunde legte und die 'negativen' Tendenzen, die mit dem Hype um den Begriff 'Podcast' einhergehen, aufgriff. Dieser Hype betrifft ja ansich eine nicht gerade 'neuzeitliche' Technologie. Früher galten 'Freaks', die sich mit Mikrofon vor ihr Tonbandgerät setzten, um eine 'private' Radiosendung zu produzieren zwar als als 'harmlose Zeitgenossen' aber eben doch als Freaks...und mit der Tonbandaufzeichnung einer universitären Lehrveranstaltung konnte man keinen großen Staat machen. Unter dem Begriff 'Podcast' allerdings gelten Audio-Aufzeichnungen wieder als en-vogue. Apple besitzt durch sein den Namen spendende Produkt die absolute Diskussionshoheit zum Thema. Der Hype treibt skurile, aber auch (personell) Ressourcen-intensive Blüten. Allerdings bleiben dabei didaktische Aspekte -- ebenso wie Aspekte der Recherchierbarkeit und Archivierbarkeit -- oft auf der Strecke. Anstelle 'wild' darauf los zu produzieren sollte man sich vielmehr vorher Gedanken darum machen, wie dieses Medium didaktisch am geeignetsten eingesetzt werden könnte. Zudem sollte es Mindestansprüche bzgl. der Aufzeichnungs- und Produktionsqualität geben. Obwohl der Web2.0-Grundgedanke prinzipiell jedem die Möglichkeit gibt, zum Informationsproduzenten aufzusteigen, sollte zumindest bei der universitären Lehre auf qualitative Mindestanforderungen geachtet werden!

  • Martina Welte (Universität Freiburg): Erfahrungen mit dem Einsatz von Podcasts in der Lehre am Institut für Informatik der Universität Freiburg
    Wie der Titel schon sagt, wieder ein Erfahrungsbericht, diesmal aus Freiburg. Dabei ausführlicher und technisch fundiert...aber bei all diesen Erfahrungsberichten komme ich mir langsam vor wie in einer Selbsterfahrungsgruppe.....

  • Oliver Vornberger (Universität Osnabrück):Vorlesung "Algorithmen" als Video-Podcast im Apple iTunes Store
    Wieder ein Erfahrungsbericht....diesmal im Zusammenhang mit Apple iTunes und dazu erfrischend 'vorgetragen' (die Unterhaltungsqualität des Vortrags erreichte in der zweiten Hälfte gar ungeahnte Höhepunkte....kein Wunder, dass die 'Pooodcasts' von Herrn Prof. Vornberger so populär sind!!). Anscheinend - und von derselben 'Erfahrung' wurde auch schon vom Vorredner berichtet - erhöht das Einstellen einer aufgezeichneten Vorlesungsveranstaltung bei Apple iTunes (im Gegensatz zum einfachen Link auf der Homepage des Dozenten oder der Portalseite der Universität) deren Attraktivität schlagartig. Ob allerdings ein erfolgreicher Download mit einem 'erfolgreichen Vorlesungsbesuch' gleichgesetzt werden kann, das möchte ich bezweifeln. Ebenso die Ausführungen zur 'Ernsthaftigkeit' der Nutzung dieses Downloads...

Damit endet meine Teilnahme an der Podcast University in Osnabrück. Der zweiten Tag mit den Workshops zur Podcast-Produktion bzw. zum Mikrofonsprechen waren für mich weniger interessant. Zudem wartet in Potsdam eine Menge Arbeit auf mich.

Mein Fazit zur Veranstaltung: Eine gute Gelegenheit, sich (OSOTIS) etwas bekannter zu machen. Allerdings darf ein derartiger Workshop nicht (mehr) zur 'Selbsterfahrungsgruppe' auswachsen. Selbst wenn das Thema Podcasts relativ neu sein sollte, Aufzeichnungen von Vorlesungen gibt es schon lange und haben mittlerweile (zumindest sollten sie das) eine entsprechende technische Reife erlangt, so dass es nicht unbedingt mehr interessant erscheint, die 35. 'Erfolgsstory' anzuhören, wie ein Dozent seine Lehrveranstaltung mit hausgemachten Behelfswerkzeugen (a la McGuiver) als Aufzeichnung ins WWW stellt....

Sunday, September 02, 2007

Ice Age ante portas ....

If you believe it or not, last week, when I returned from my holiday trip, I found a 'real' mammoth in front of our institute. Actually I was entering the office of OSOTIS and taking a look outside of the window and there was....... a mammoth!
At the Goethe-Galerie (next to Friedrich-Schiller-Universität Jena at Ernst-Abbe-Platz) there is an exhibition about 'Giants of the Ice Age'. Actually, the mammoth should have been inside the Goethe-Galerie.....but it was simply too big (4,50 m = 15 feet and 1.5 tons) to get it there. Thus, it has been placed outside and is scaring pedestrians and cyclists ... and of course it is big fun for all children.

see also: OTZ from August 15th, 2007.

Reference Sheet for the Semantic Web

Ebiquity Research Group has published a nice Reference Sheet (as .pdf) for the Semantic Web including the most important constructs from RDF, RDFS, OWL, and SPARQL.

[via DERI blog]