Friday, July 13, 2007

Das 'alte' Web ... über die Jugendzeit eines revolutionären Mediums


Markus Trapp schreibt heute in Text&Blog zum Thema Internet-Zeitmaschine über ein 13 Jahre altes Werbe-Video der Firma digital zum damals neuen und revolutionären Medium 'World Wide Web' (Digital Equipment Corporation, kurz DEC oder digital gibt es heute meines Wissens auch nicht mehr...übrigens, UNIX wurde auf einer DEC PDP-7 entwickelt, und einer der ersten 4 Rechner im Internet (damals ARPAnet) 1969 war eine DEC PDP-10, und die erste 'richtige' WWW-Suchmaschine 'Altavista' lief auf einem (damals) revolutionären 64-Bit DEC-alpha Rechner...).

Das Video sollte man sich auf alle Fälle einmal ansehen. Sei es, dass man die Anfänge dieses Mediums selbst miterlebt hat, dann sollte man sich diese 'stürmische' Anfangszeit noch einmal ins Gedächtnis rufen. Mosaic als erster grafischer Web-Browser war eine Offenbarung -- zumindest verglichen mit dem zuvor üblichen lynx.... erinert sich eigentlich noch jemand an gopher -- (jenem textbasierten Internet-Informationssystem, das oft als Vorläufer des WWW genannt wird) ??
Oder sei es, dass man aufgrund seiner Jugend erst kürzlich mit dem Internet Bekanntschaft geschlossen hat. Dann führt einem das Video vor Augen, welche hochtrabenden Pläne und Visionen mit diesem damals noch recht einfachem Medium verbunden wurden.

In der Diskussion um Markus' Beitrag stellt sich heraus, dass die meisten Leser den Unterschied der Präsentation des damaligen WWWs und des heutigen mehr als marginal empfinden und den Fortschritt, den das Medium in den vergangenen 13 Jahren beschritt nicht nachvollziehen können. Doch erinnern wir uns einfach einmal zurück....(jetzt folgt ein Ausschnitt aus meinem Diskussionsbeitrag aus Markus' Blog):

Ich bin allerdings der Meinung, dass sich in den letzten 13 Jahren immens viel getan hat - auch wenn dies nach außen nicht immer offensichtlich ist. Das Web hat die 'Browserkriege' überstanden und steht jetzt auf einer soliden, durch Standards fundierten Basis (....auch wenn es immer noch Befindlichkeiten und technische Unterschiede zwischen den Browsern und ihrer Interpretation besagter Standards gibt...ich möchte gar nicht erst von Javascript reden...). Die web-fähigen Endgeräte sind extrem billig und höchst transportabel. Sichere (verschlüsselte und signierte) Datenübertragung wird über existierende PKIs (Public Key Infrastructures inkl. Trust Center/Certificate Authorities) gewährleistet und haben den boomenden E-Commerce erst möglich gemacht. ....Und über die Geschwindigkeit des Netzes möchte ich gar nicht erst reden (...war doch mal ein 9.600 Baud Modem das 'höchste' der Gefühle, während heute DSL jedermann einen Breitbandzugang schafft). Zudem die Datenkompression....MP3, MPEG, MPEG4, H.264 und wie sie alle heißen. Anfang bis Mitte der 90er Jahre wurde eifrig am MPEG1-Standard geschraubt, der ja eigentlich für die Realisierung einer 'Video-CD' gedacht war. Dazu stellte man sich die (damals) unglaubliche Aufgabe, Videodaten bis zu einem Faktor von 1:100 zu komprimieren (allerdings mit bescheidenem Ergebnis, vergleicht man dies mit aktuellen Standards).

Auf alle Fälle war damals 'Geschwindigkeit' und 'Bandbreite' DAS Thema. Man erinnere sich nur an die Möglichkeit, im Browser das Laden von Bilddaten zu unterbinden, damit die Seite schneller angezeigt werden kann. Erinnert sich übrigens noch jemand an Prä-Mosaic Zeiten, d.h. an Zeiten, in denen es noch keine graphischen Browser gab....'lynx' wäre ein Beispiel, bei dem man sich noch keine Gedanken um Grafikinhalte machen musste...

Also ich denke, es hat sich doch einiges getan -- wenn auch oft 'hinter den Kulissen' in Richting Standards, Sicherheit, Geschwindigkeit und Kodierung. ...und wenn jetzt einer sagt, das wäre alles nicht so wild, dann geht bitte wieder selbst zur Bank, um eine Überweisung zu machen, vergesst iPods, SmartPhones, Ebay, Amazon, Google (oh mein Gott, die hätte ich ja fasst vergessen...1994 da gabs ja allerhöchstens 'Altavista' bzw. war es da nur in der Planung, da Altavista erst 1995 gestartet wurde...soviele Web-Seiten gab es ja damals auch noch gar nicht... ), Web 2.0, Interaktion, Partizipation, Social Networking, P2P-Computing, Filetauschbörsen, iTunes, Wikipedia, und, und, und...... ;-)

Wednesday, July 11, 2007

Was das Tragen von Unterwäsche mit der Lese- und Schreibfähigkeit zu tun hat....

Klingt albern, hat aber einen wahren Kern....
Bislang galt für selbstverständlich, dass mit dem Aufkommen der Druckerpresse und des Buchdrucks Bücher billiger und daher auch in größeren Massen produziert werden konnten. Die dadurch erreichte höhere Verfügbarkeit von kostengünstigem 'Lesematerial' sei auch verantwortlich für die gegen Ende des Mittelalters ansteigenden Zahl Lese- und Schreibkundiger unter der damaligen Bevölkerung.

Marco Moster vom 'Centre for Medieval Studies' an der Universität Utrecht sieht Ursache für die billigere Buchproduktion allerdings weniger in der Erfindung der Druckerpresse und des Gutenbergschen Druckverfahrens als vielmehr in der ebenfalls zu dieser Zeit aufkommenden Verfügbarkeit von billigem Papier. Papier fand erst relativ spät seinen Weg nach Europa. Die erste Papiermühle in Deutschland begann erst Mitte des 14. Jahrhunderts mit ihrer Arbeit (1389, die 'Gleismühl' in Nürnberg) [1] und Gutenberg musste das Papier, das für seine Prachtbibel vorgesehen war noch mühsam aus Italien importieren [2].

Doch Papier war von Anfang an weitaus billiger als das edle Pergament, das in einem arbeitsintensiven Herstellungsverfahren aus Tierhäuten gewonnen wurde. Doch woher kam das billige Papier? Grundstoff der Papierherstellung war Hadern, d.h. alte Stoffe, Lumpen, Kleidung und der daraus gewonnene Zellstoff (Zellulose). Die Stoffreste wurden in Wasser eingeweicht, einem Faulungsprozess unterzogen und schließlich in einem Stampfwerk zu Zellstoff zerfasert, der anschließend aus dem Wasser mit Sieben als Papier 'geschöpft' wurde.
Das Interessante an Mosters These liegt darin, dass er den Grund für das vermehrt günstig hergestellte Papier damit in Verbindung bringt, dass zur selben Zeit eine Landflucht hin in die Städte einsetzte. Zeitgleich kam das Tragen von Unterwäsche damals verstärkt in Mode, so dass in den Städten abgetragene Unterwäsche in stetig wachsender Menge als Lumpen und damit als begehrter Grundstoff für die Papierproduktion zur Verfügung stand....

...so nachzulesen bei EurekaAlert! vom 09. Juli 2007 via omnibrain- Dort kann man sogar die Replik einer Original mittelalterlichen Unterhose bewundern....

Literatur:
[1] Katharina Kramer: Ein wahrhaft revolutionärer Stoff, SZ am Wochenende vom 23. März, 2002.
[2] U. Reher, K.M. Wustrack: Gutenberg Bibel, Pressedienst "Gutenberg 2000", Sept. 1997.

Tuesday, July 03, 2007

Carpe Diem - Kommentar zu Goethes wiederaufgetauchter Dissertationsschrift


Nach 30 Jahren im Schultresor eines Düsseldorfer Gymnasiums ist jetzt die Doktorarbeit Goethes wieder aufgetaucht, so nachzulesen bei der Tagesschau des Schweizer Fernsehens. More Semantic!... startete im September 2005 mit einem Artikel über Goethes 'famous last words', daher jetzt auch dieser Artikel zu Goethes Doktorarbeit. Johann Wolfgang von Goethe schloss 1771 sein Jura-Studium in Straßburg mit einer 12-seitigen (!) Dissertationsschrift ab und promovierte damit zum Doktor der Rechte. Natürlich möchte ich damit auch allen Doktoranden (einmal abgesehen von Medizinern...das ist eigenes Thema) Mut zusprechen, dass es nicht unbedingt notwendig ist, hunderte von Seiten für die Dissertationsschrift zu schwärzen. Bestimmt ist die Kürze der Goethe'schen Arbeit auch den Umständen der Zeit geschuldet. Wer kann heute noch mit einer zwölfseitigen Abhandlung promovieren -- vielleicht ein genialer Mathematiker, der es fertig bringt, einen unerhörten Beweis in dieser Kürze vollständig zu beschreiben (...auch wenn man dazu wahrscheinlich einen zweiten Fermat bräuchte). Für meinen Fachbereich (Informatik) zumindest kann ich konstatieren, dass 100 Seiten keine Seltenheit, sondern wohl eher die Regel sind. Einzige Ausnahme vielleicht die theoretische Informatik, die auch schon mal mit weniger Seiten auskommt.
Nun besteht in Deutschland zumindest immer noch die Notwendigkeit, für eine akademische Karriere im Anschluss an die Dissertation noch die Habilitation zu erlangen (auch wenn vielerorts schon beteuert wurde, dass man diese abzuschaffen gedenke und mit der 'Juniorprofessur' einen alternativen Weg eröffnen wollte....die Praxis in vielen Berufungskommissionen überzeugt zumindest derzeit noch vom Gegenteil). Worauf ich aber hinaus möchte betrifft den Umfang dieser Arbeit. Ich sah vor einigen Tagen die Habilitationsschrift eines Kollegen aus der Philosophie -- und die erweckte eher (vom Umfang her besehen) den Eindruck eines in festen Einbanddeckeln gebundenen, überdimensionalen Quelle-Katalogs (auch wenn man mir beteuerte, dass läge nur daran, dass die Arbeit 'einseitig' ausgedruckt worden wäre...

Nun, meiner Meinung nach besteht die Kunst des Verfassens einer wissenschaftlichen Arbeit auch darin, sich möglichst knapp und präzise auszudrücken, dabei seinen Standpunkt klar zu machen und diesen zu diskutieren (ich bin kein Philosoph und möchte daher auch die Qualität der o.a. Habilitationsschrift in keiner Weise mindern, da ich diese nicht beurteilen kann). Goethe ist dies allem Anschein nach (...ich habe seine Arbeit nicht gelesen, zumal sie dem Titel 'Profundis iuris' nach anscheinend in Latein abgefasst zu sein scheint) gelungen....auch wenn sein späteres Werk nicht unbedingt durch 'Kürze' glänzt ;-)
Natürlich möchte niemand den Eindruck erwecken, die eigene wissenschaftliche Arbeit sei aufgrund der Knappheit ihrer Abfassung am Ende gar 'leichtgewichtig'. Aber wenn ich eine Arbeit korrigieren muss, schrecke ich vor den voluminösen Ausarbeitungen eher zurück...schließlich verlangt solch ein Werk ja ganz gelesen (und verstanden) zu werden. Redundanz (im positiven Sinn) dient der Vereinfachung und besseren (einfacheren) Lesbarkeit. Etwas Redundanz muss sein -- auch in wissenschaftlichen Arbeiten, denn sonst würde das Lesen und Verstehen noch anstrengender werden. Auf der anderen Seite sollte sich die Redundanz aber mit dem wesentlichen Inhalt die Waage halten.

Also daher an alle Diplomanden und Doktoranden mein Aufruf: Carpe diem! ('Nutze den Tag' bzw. im übertragenen Sinne 'fasse dich kurz'). Ich befürchte, kaum einer der dieses Blog liest kann sich noch an diesen vom römischen Kommödiendichter Horaz geklauten Werbespruch der Post (heute Telekom) erinnern, der an den damals noch sehr zahlreichen Telefonzellen klebte....

Friday, June 29, 2007

Browser ... was sind denn jetzt noch 'mal Browser .......


Eigentlich kaum zu glauben....aber mit der Medienkompetenz unserer Spitzenpolitiker scheint es nicht allzu weit her zu sein. Dies zeigt ein Beitrag der Kinderreporter aus dem ARD-Morgenmagazin, der eigentlich auch gar nicht weiter kommentiert werden müsste....
Immerhin wissen wir jetzt, dass auch Christoph Ströbele von den Grünen eine Homepage hat (er scheint es übrigens auch zu wissen...) auch wenn er sie nach eigenen Aussagen "nicht bedienen" kann. Zum Glück war er ja auch schon "ein- oder zweimal" im Internet. . Zumindest die Geschichte vom "Programm" mit den "Fundwörtern" gibt Anlass zur Hoffnung, dass die neuen Medien auch bei den Volksvertretern angekommen sein könnten....

Insofern tatsächlich ein Kontrastprogramm zum 'IT-Gipfel-Blog' von dem zuletzt die Rede war.

Wednesday, June 27, 2007

IT-Gipfelblog geht online....


Endlich ist es so weit. Seit dem 20. Juli ist das IT-Gipfel Blog des Hasso-Plattner-Instituts in Potsdam online. Ziel und Zweck des IT-Gipfel Blogs ist es, die Diskussion um die Themen des 1. Nationalen IT-Gipfels der Bundesregierung Ende vergangenen Jahres in einem geeigneten Rahmen fortzuführen. Im Vorfeld dazu gab es auch eine große Umfrageaktion, in der ausgelotet werden sollte, in wie weit Blog-Leser (die ja auch jederzeit selbst mit Kommentaren zum Blog beitragen können) einer redaktionellen Kontrolle zustimmen würden. Die Ergebnisse dieser Umfrage wurden bereits veröffentlicht [1] und dienten als Grundlage für die weitere Ausgestaltung des aktuellen IT-Gipfel Blogs. Zwar gibt es noch einige kleinere 'technische' Problemchen, aber ich bin sicher, dass diese bald behoben werden können. Gespannt bin ich schon mal auf die tatsächliche Beteiligung (am ersten Tag gab es laut Aussagen meines Kollegen Justus Bross bereits über 90 Anmeldungen...) in den Diskussionsgruppen und natürlich insbesondere auf Meinungen und Beiträge der Polit-Prominenz.

[1] J. Bross, H. Sack: Encouraging Participation in Virtual Communities: The "IT-summit-blog" Case, in Proc. of IADIS Int. Conf. e-Society 2007, Lisboa, Portugal, 2007.

Tuesday, June 19, 2007

SkypeCast zum 3. Online-Roundtable “Vorlesung 2.0 - gebloggt, getaggt, getwittert” - ...jetzt aber


Endlich hat es doch geklappt, mit dem SkypeCast zum 3. Online-Roundtable zum Thema "Vorlesung 2.0: gebloggt, getaggt, getwittert”. Leider hatten die vorangegangenen technischen Probleme doch die meisten Studenten 'verschreckt', aber die Diskussion gestern abend geriet doch recht interessant. (Hier gibt es den Audio-Mitschnitt zum SkypeCast).
Für mich natürlich Ansporn, auch im kommenden Wintersemester (diesmal am HPI in Potsdam) auf Web2.0-Technologien im Vorlesungsbetrieb zu setzen...und das nicht nur zur ergänzenden Information sondern vor allem auch, um Interaktivität und Kommunikation in und außerhalb der Vorlesung zu fördern. Hier einige der angesprochenen Möglichkeiten:

  • Durchführung einer freiwilligen Einführungsveranstaltung (Praktikum), bei der vor allem auch die Studenten (in einem möglichst freien Rahmen) ihren Komillitonen verschiedene Web2.0-Technologien vorstellen und deren Vor-/Nachteile und Einsatzmöglichkeiten (vor allem auch diejenigen, an die der Dozent nicht in erster Linie denkt) vorstellen.

  • Vorlesungsmitschrift mal anders: Die Vorlesungsmitschrift als eine Art Protokoll gemeinschaftlich im Rahmen eines Wikis (oder Blogs) entwickeln mit Beiträgen der Studierenden als auch mit Beiträgen des Dozenten.

  • ...


Interessant wäre eine Folgeveranstaltung im zeitlichen Abstand von etwa einem halben Jahr, in dem wir wieder unsere (neuen) Erfahrungen austauschen könnten. Steffen hat zu diesem Zusammenhang angeregt, doch mal ein Barcamp zum Thema 'Vorlesung 2.0' zu organisieren.....also ich wär dabei ;-)

Friday, June 15, 2007

2. tele-TASK Symposium - "Vom e-Learning in der Schule bis zur Web-Uni", 14./15. Juni 2007, Potsdam - Tag 2


Der zweite Tag des tele-TASK Symposiums amd HPI Potsdam startete mit einigen Erfahrungsberichten des Einsatzes von e-Learning Systemen an Schulen und Hochschulen. Heinrich Blana und Hubert Simon vom Franz-Stock-Gymnasium in Arnsberg berichteten von 'E-Learning im MINT-Bereich des Gymnasiums - Möglichkeiten und Grenzen". Serge Linckels (nicht als Doktorand am HPI sondern als Lehrer am LTE-Luxembourg) berichtete vom Stand des 'E-Learning in Luxemburg', gefolgt von Birgit Gaiser vom Knowledge Media Research Center in Tübingen, die über 'Transparenz durch Web-Präsenz - E-Teaching Angebote deutscher Hochschulen' vortrug.

In der daran anschließenden Infrastruktur-Session sprach als erster Referent Djamschid Tavangarian von der Universität Rostock 'Vom mobilen zum pervasiven Lernen'. Besonders interessant fand ich in diesem Zusammenhang die Argumentation, dass eine Voraussetzung für pervasives Lernen die Selbstorganisation darstellt. Selbstorganisation als Bestandteil des pervasiven Lernens (Evolution des Lernens) basierend auf Service-orientierten Architekturen (SOA). Nachdem an der FSU Jena über selbstorganisierte System im Katastropheneinsatz diskutiert wurde, finde ich dieses Anwendungsgebiet natürlich besonders spannend und bin gespannt, ob ich unsere Aktivitäten vielleicht auch in diese Richtung lenken kann...

Daniel Dahl von der Universität Münster gibt in seinem Vortrag 'Von der Lerninhalte-Distribution bis zur Computergestützten Abschlussprüfung' 'eine Übersicht über die an der Universität Münster eingesetzten e_Learning-Plattformen. Interessant dabei ist das Web 2.0 basierte e-Learning-Tool 'Learnr', in dem Lernunterlagen von den Benutzern mit Schlagworten und Kommentaren getagged werden können. Also e-learning 2.0 oder (etwas weniger griffig) Community-driven Learning.

Im abschließenden Vortrag stellt Sabine Rathmayer von der TU München das integrative eLearning-Projekt elecTUM in ihrem Vortrag 'elecTUM - Aufbau einer integrierten eLearning Infrastruktur...' vor.

2. tele-TASK Symposium - "Vom e-Learning in der Schule bis zur Web-Uni", 14./15. Juni 2007, Potsdam


I'm spending two days again in Potsdam at HPI (Hasso-Plattner-Institute) for a symposium on e-learning. The symposium is subtitled with 'from e-learning in school to the web university' with presentations ranging from semantic technology in e-learning research to experiences and studies of e-learning deployment in school and university. The oficial language of the symposium is German, so please forgive me for switching to German for my comments on the presentations and the symposium in general.....

Potsdam...endlich mal wieder bin ich hier am HPI. Mein letzter Arbeitstag hier liegt jetzt schon fast zwei Monate zurück, aber als ich 'mein' altes Büro betrat, hatte ich da Gefühl, als wäre ich überhaupt nicht fort gewesen. Dabei ist mir aufgefallen, dass ich aus Jena jetzt ganz schön verwöhnt bin, was die (am HPI nicht vorhandene) Klimatisierung betrifft :)
Aber kommen wir zum eigentlichen Anlass meines Besuchs: Das 2. tele-TASK Symposium mit dem Thema "Vom E-Learning in der Schule zur Web-Uni". Das Publikum besteht wohl hauptsächlich aus Anwendern, d.h. Lehrern und Didaktikern und weniger aus Forschern und Entwicklern, aber nichts desto trotz verspricht das Programm interessant zu werden.

Der erste Tag begann mit einer kurzen Begrüßung des Instiutsleiters Prof. Christoph Meinel und der Vorstellung des Konzepts (und Forschungsschwerpunkts) der WebUniversity. Im Rahmen dieses Forschungsschwerpunktes wurden im Anschluss einzelne Projektschwerpunkte vorgestellt, darunter 'tele-TASK goes mobile" mit der Möglichkeit, Vorlesungsaufzeichnungen im podcast-Verfahren für den iPod bereitzustellen, "MaTes" - eine Art personalisierter e-Learning Schnittstelle für Schüler (siehe auch hier), eingesetzt im Mathematikuntericht (hier speziell zum Erlernen des Bruchrechnens) in der vierten Klasse. Im Rahmen dieses Projekts produzierten die Schüler selbst eigene kurze Lerneinheiten - aufgezeichnet auf Video - in denen sie ihren Klassenkameraden einzelne Aspekte des Bruchrechnens erklären und in eigener Regie beibringen sollten. Im Anschluss an die Produktion der einzelnen Lerneinheiten wurden diese im Schulunterricht eingesetzt, wobei der Lehrer lediglich als Moderator/Coach/Systemadministrator in das Geschehen eingriff. Interessantes Ergebnis dabei war eine (zwar schwache, aber dennoch) qualitative Verbesserung der von den Schülern erreichten Noten. Ob diese Verbesserung nun speziell auf das eingesetzte e-Learning oder aber lediglich auf die generelle Veränderung der Lernsituation (Stichwort: "wenn der Lehrer in der Badehose zum Unterricht erscheint, steigt die Aufmerksamkeit der Schüler...") blieb kontrovers diskutiert.

Das nächste vorgestellte Projekt 'tele-LAB' behandelt eine Laborumgebung (siehe auch hier, die ein praktisches Training zum Thema Internet-Security gestattet. Dem Lernenden wird dabei eine virtueller Rechnerumgebung zur Verfügung gestellt, auf der Aspekte der Internet-Security (vom Scannen der Schwachstellen eines Hosts bis hin zu aktiven Angriffen und deren Abwehrmöglichkeiten) praktisch und ohne Gefahr (...für alle Beteiligten) getestet werden können.

Nach einer Demo-Session, in dem im Foyer die einzelnen Projekte auf Herz und Nieren geprüft und hinterfragt werden konnten, folgte eine Session zum Thema 'Semantic Web - Erschließung von multimedialen Inhalten', beginnend mit meinem Vortrag zur unserer Videosuchmaschine OSOTIS und der in diesem Zusammenhang eingesetzten Technologie (hier gibt es die Handouts zur Präsentation). Unsere Videosuchmaschine wächst und "gedeiht", d.h. wir werden in den nächsten Tagen das 2000. Video einstellen, es haben sich annähernd 500 Nutzer angemeldet und die Verfahren zur automatischen synchronen Annotation werden fortlaufend verbessert. Die Besonderheit von OSOTIS besteht darin, nicht nur NACH Videoauzeichnungen suchen zu können, sondern IN Videoaufzeichnungen zu suchen. Bei Eingabe eines Suchwortes wird der Nutzer direkt an die betreffende Stelle in einer resultierenden Videoaufzeichnung geführt und kann diese nutzen, ohne diese selbst erst innerhalb einer Videoaufzeichnung suchen zu müssen.

Im Anschluss daran, präsentierte Siegfried Handschuh vom DERI Galway das Projekt 'Semantic Desktop', das sich zum Ziel gesetzt hat, das Semantic Web auf den eigenen Desktop bringen, d.h. die Daten der unterschiedlichsten Desktopanwendungen (von der E-Mail, über den Notizblock, den Kalender, das Filesystem, usw.) alle gemeinsam zu integrieren und nutzbar zu machen. Besonders interessant dabei ist die Tatsache, dass einer der beteiligten Projektpartner ein Linux-Distributor ist. Daher können die erzielten Ergebnisse sofort im Rahmen einer neuen Linux-Distribution eingesetzt
werden und gelangen direkt (und auf schnellstem Wege) zum Endanwender.

Der letzte Vortrag des Tages von Andreas Rasche (HPI-Potsdam) behandelte die virtuelle Experiment- und Testumgebung 'Distributed Control Lab'. Eingebettet in ein 'transnationales' europäisches Netzwerk erlaubt die virtuelle Experimentierumgebung das Durchführen von entfernten und verteilten Experimenten (die in der realen Welt stattfinden und über die virtuelle Experimentierumgebung gesteuert und überwacht werden können).

Der Tag endete mit einem Conference Dinner im Hotel Griebnitzsee, gleich neben dem HPI. Der Wein war exzellent (2006er Trierer Hohe Domkirche, Riesling Spätlese Trocken...würzig, wenig frucht und säure, aber rund und sehr lecker!! ), ebenso wie das mehrgängige Menu. Einziger Wermutstropfen waren die 'versalzenen' Erdbeeren. Die Küche hatte doch glatt den Zucker- mit dem Salztiegel verwechselt - und so war das Erdbeerparfait leider, leider versalzen (...da half auch nicht die Beteuerung des Kellners, dass es sich bei den 'gewürzten' Erdbeeren um einen 'neuen Trend' in der Küche handeln würde...).

Thursday, June 14, 2007

Skypecast zum Thema "Vorlesung 2.0: geblogged, getagged, getwittert" - 2. Versuch


Das war ja wohl nichts....
Schade, aber die Technik hat uns bei unserem geplanten online-Roundtable einen Strich durch die Rechnung gemacht. Eine dicke Entschuldigung an alle frustrierten Zuhörer. Erst einmal mussten wir feststellen, dass skype die Software geändert hatte und den Download der aktuellen skype-Version für alle Teilnehmer vorschrieb....So weit so gut. Das hätte unser Vorhaben ja "nur" ein wenig verzögert (auch wenn die 30 MB Installation-Kit ganz schön auf sich haben warten lassen). Dass allerdings der für Mac OSX vorgesehene "aktuelle" Skype-Client nicht in der Lage ist, an einem SkypeCast teilzunehmen, damit hatten wir nicht gerechnet. Da wir zu keiner zufriedenstellenden Lösung gelangten, wurde beschlossen, die Veranstaltung zu vertagen. Die beiden Mac-User (mich eingeschlossen) haben sich dazu verpflichtet, beim nächsten Versuch auf einen Windows PC umzusteigen.....(sic transit gloria mundi....). Dieser soll am kommenden Montag, den 18. Juni 2007 an gleicher Stelle stattfinden. Die Kollegen von e-learning 2.0 werden rechtzeitig alle, die sich angemeldet hatten informieren. Drückt uns die Daumen, dass es diesmal klappt.

Wednesday, June 13, 2007

Skypecast zum Thema "Vorlesung 2.0: geblogged, getagged, getwittert"

Zusammen mit Marcel Kirchner und Thomas Bernhardt hat Steffen Büffel einen Online-Roundtable organisiert, an dem ich heute teilnehmen werde. Dieser findet heute um 19 Uhr in Form eines Skypecasts statt. Ich zitiere die Ankündigung der Kollegen vom eLearning 2.0-Blog:

"Nach den erfolgreichen ersten beiden Events ist es nun wieder soweit. Am Mittwoch, den 13. Juni 2007 gegen 19 Uhr findet Session #3 des Online Round Table statt!

Diesmal lautet das Thema: “Vorlesung 2.0 - gebloggt, getaggt, getwittert”. Angestoßen und moderiert von Steffen Büffel vom Blog Media-Ocean, hat er auch die Liste der geladenen Experten zusammengestellt. Wir freuen uns auf:

Dr. Harald Sack von der Universität Jena, Prof. Dr. Thomas Pleil von der Hochschule Darmstadt und voraussichtlich Dr. Christoph Bieber von der Universität Gießen. Die Experten werden in einer lockeren Diskussionsrunde von ihren Erfahrungen rund um den Einsatz von Web 2.0 Technologien neben der herkömmlichen Präsenzlehre berichten. Dabei zielt die Veranstaltung gewollt auf den Kontakt zu den teilnehmenden Studenten, um so vielleicht auch direkt Anregungen von der “Zielgruppe” zu erhalten.

Wir laden hiermit alle recht herzlich ein, an der Session #3 teilzunehmen! Sendet uns einfach eine Mail an info(at)elearning2null.de. Wie die letzten beiden Male, findet auch dieser ORT via Skypecast statt, wo eigentlich nur ein Headset, Skype ;-) und eine Internetverbindung vorausgesetzt sind.

Wir freuen uns auf eine sehr interessante Runde!
"

Wednesday, June 06, 2007

ESWC 2007 - 4th European Semantic Web Conference - Aftermath


While the original conference ended yesterday evening after the conference dinner, ESWC continues for another two days with workshops, phD-forum, etc. Unfortunately, I had to leave Innsbruck this morning, because there are lectures I have to give. The interesting workshops (at least for me) are taking place on Thursday. Thus, wednesday would have been 'spare time'. From my point of view, if organising two days of workshops, they would have been better splitted to one day before and one day after the conference.
Anyway, ESWC with only two days of presentations is rather short. To draw some resume, it was.....let's say it was a nice conference. Two out of four invited talks were interesting (best one about monadic 2nd order logic and data extraction tool lixto by Georg Gottlob), another one was rather bizzare (just remember brains(!) and buzzwords). Some of the full paper presentations were rather weak (I was wondering why they got accepted) and some of the poster presentations or demos on the other hand were rather interesting (and would have served even better as full presentations).

Innsbruck congess center was rather agreable (stable wlan support, acceptable coffee and lunch...I really appreciated the Austrian sweets). On the last day -- due to a lack in coffee support -- the sessions got a little bit out of sync and thus, it was difficult to switch in between the presentations (as you can read in day 02). Innsbruck is an interesting city with a rather nice historic center (at least as far as I could see...with masses of asian/american tourists). Surrounded by huge mountains, one gets a strange feeling of being closed away from the rest of the world. But, let's get back to the conference dinner. The food was excellent (I really appreciated the 'frozen Kaiserschmarrn' and now I know that Tyroleans are also very proud of 'dumplings' of any kind...). I tried the red wine (Zweigelt Classic 2006 from Rotweingut Iby, Horitschon), but it was more or less 'unsignificant' (a little bit like cherry, accentuation on acids....absolutely no comparison to the St. Magdalener I had the week before at Bertagnolli's at home in Weimar). In the end of the confeence dinner, the new conference location for eswc 2008 was presented: Tenerife on the Canary Islands (Spain)!! I've never been there for a conference, but I'm looking forward to it. Next, the 'show part' was on the schedule. People said that there was some 'ballet dancing' to expect.....so I was curious to see some - let's say maybe typical Tyrolean dance. Don't ask....the dancer to come maybe was Tyrolean.....but it was belly dancing with Arabian/Turkish music. Dont get me wrong. I am the last one not to like belly dancing :) ... But, really I expected something more typical for the region... Afterwards the conference party started (including music and dancing).

All in all, it was a nice conference (but of course there's always something to improve). Although, this time there was no 'mind blowing' paper/presentation, meeting friends (old and new ones), exchanging news and planning new projects are the things that a conference is all about. Therefore, I'm looking forward to eswc 2008 in Teneriffe.

BTW, you may find a lot of pictures from ESWC 2007 here at flickr.

Other folks blogging about ESWC 2007:

Tuesday, June 05, 2007

ESWC 2007 - European Semantic Web Conference, Innsbruck (Day 02)


Another warm early summer morning in Innsbruck. The poster session yesterday (official end 8pm) at least for me ended a about 10pm. After my short walk from the train station to Innsbruck congress center the 2nd day of the ESWC 2007 again starts with an invided talk.

Keynote 3 - 9.00 - 10.00
Georg Gottlob from Oxford University presents a talk on 'The Lixto systems applications in Business Intelligence and Semantic Web'. He addresses the question on how knowledge about market developments and competitor activities on the market can be extracted dynamically and automatically from semi-structured information sources on the Web. As a logic foundation, he proposes to use monadic second order (MSO) logic, which captures exactly the essence of data extraction (define sets of nodes for a document, re-label tree nodes as monadic predicates, get rid of irrelevant predicates...that's what data extraction is about). Next, the extracted data can be classified, re-assigned and transformed with the aid of Semantic Web ontological domain knowledge. All these techniques are combined in the (commercial) Lixto Visual Wrapper application (for non-commercial use Lixto is freely available. Just write an email to Robert Baumgartner).

Natural Language and Ontologies / Applications session - 10.30 - 12.00
Again, I decided to share two sessions this morning, the Applications session first and later switching to the Natural Language and Ontologies session. The application session starts with a talk from Sören Auer on 'What have Innsbruck and Leipzig in common? Extracting Semantics from Wiki Content'. The idea is to use those data from Wikipedia that are (really) structures. Yes, besides unstructured text information, Wikipedia contains real structured data. E.g., for all geographic entities such as cities, countries, etc. all of them include a so called infobox at the right upper side of the article. Within the infobox (as being a fixed template) there you will find structured data such as population, area, etc. all structured in a similar way. Thus, being subject to easy data extraction. The next step was to encode the extracted data from the infoboxes (and others) into RDF statements (more than 8 millions for the English version of wikipedia). The application 'Query wikipedia' (there is also a blog) is based on the RDF database being extracted from wikipedia and is available on the web. 'Query wikipedia' is part of the community project 'DBpedia', which offers several alternative user inferfaces for wikipedia data and aims to integrate (structured as well as unstructured) wikipedia data with other data resources on the web.

Next, Tudor Groza from DERI Galway presents a talk on 'SALT - Semantically Annotated LaTeX for scientific publications'. Normally - at least for HTML or PDF data - semantic metadata are created (if being created) a posteriori, i.e. after the actual writing process. Tudor proposes an authoring tool for generating semantic annotations concurrent to authoring the text (-> therfore, concurrent annotation). SALT deploys pdf as standard container for both annotation and document content while extending the LATEX writing environment to support the creation of metadata for scientific publications. More information about the SALT project including the underlying ontologies for representing document structure, annotations, as well as rethorical structre can be found here.

Unfortunately, I have missed an fierce argument (at least as Andreas told me...) taking place in the Natural Language and Ontologies session. But now, I'm listening to a talk given by Peyman Sazedj from Lisboa on 'Mining the web through verbs: a case study'. They focus on extracting relation instances -- in particular verbbased relation instantiationa -- among annotated entities. As a case study, they extracted verb relations from imdb biographies. Although the techniques being applied were not rather sophisticated (verb chunking and entity clustering, mapping verbs to relations from an ontology) the results on large text corpora seem promissing. The IMDb sample corpus is available here.

Keynote 4 - 14.00-15.00
The afternoon sessions start with a keynote given by Ron Bachman of Yahoo! Research on 'Emerging Sciences of the Internet: Some New Opportunities'. For positioning Yahoo! in that area of research he started his talk with a quote of Wayne Gretzky's father "Don't skate where the puck is, but where it will be...". Ok...now 20 minutes of talk are over and I'm still trying to figure out what his poit really is. We've seen a lot of recent buzzwords (including some old ones). I guess, if taking the heading into account, (at least I hope) that the talk should lead to 'critical' things to watch for in the near future (concerning the development of the web)...We'll see..Ok, now it is getting clearer. It's about a change in (computer) science. Bachman is refering to the ACM taxonomy of computer science as 'old' computer science (somehow reminds me of 'the old Europe...'). In relation to that he defines areas of 'new' computer science as, e.g. 'finding' science (beyond search), community science, algorithmic advertising, computational micro-economics, media experiences, data science...that of course can also be (somehow) subsumed in the ACM taxonomy. So all comes down to some 'new' research challenges according to Yahoo!

Querying and Web Data Models / Ontology Engineering II / Personalization
For the 2nd afternoon session I'm trying to achieve an 'Hattrick' by following all three parallel sessions. I'm starting in the Ontology Engineering II seesion with Enrico Motta's presentation on 'Integrating Folksonomies with the Semantic Web'. Starting with limitations on current tagging (different granularity, multilinguality, spelling errors) leading to a very low search recall, giving meaning to tags is an essential issue. Connecting tags with meaning (aka semantic web technology) will be fruitful in both directions. Of course for categorizing tags and enabling logical reasoning over tags, as well as (in the other direction) learning ontologies from tags.

The last talk started with some delay and in addition I had to switch levels to get to the basement 'Strassburg' hall, where the next talk on the Querying and Web Data session is taking place. I was a little bit late, so I couldn't figue out, who of the paper's authors is presenting the paper on 'A Unified Approach to Retrieving Web Documents and Semantic Web Data' (I guess it is Krishnaprasad Thirunarayan). He distinguishes between the traditional hyperlinked web and the property-linked RDF-web and discusses a unified approach which formalizes the structure and the semantics of interconnections between them. Also a new hybrid query language for retrieving data and information from the unified web has been developed and integrated in a small prototype 'SITAR' (unfortunately not available on the web...).

Ok, up again 2 levels to the 'Grenoble' hall to the Personalization II session. Here, I'm a little bit too early for the next interesting talk, given by Serge Linckels from HPI Potsdam on 'Semantic Composition of Lecture Subparts for a Personalized e-Learning'. Strange, but he starts his talk with advertising HPI's tele-task lecture recording system...ok, just waiting for the connection to semantic web. Serge is presenting a prototype system that interconnects single learning objects (videos) with the help of a (manually crafted) domain ontology. Learning objects are also semantically annotated in a manual way. The ontology defines which topic (represented within the learning object) is dependent of other topics ( i.e. other learning objects). On this dependency structure (encoded in description logics), a closure is computed w.r.t. a given query and thus, a sequence of interdependent learning objects is presented as a result.

Finally, back to Ontology Engineering II, where Johanna Völker is presenting a talk on 'Acquisition of OWL DL Axioms from Lexical Resources'. Light-weight ontologies (that can easily be learned) are not sufficient for reasoning-based applications. Thus, Johanna discusses the question of refining these light-weight ontologies to achieve more complex class descriptions. Based on a deep syntactic analysis of natural language definitions they try to achieve ontologies with expressive axioms. The feasibility of the approach is shown by generating complex class descriptions from Wikipedia definitions and from a fishery glossary of the Food and Agriculture Organization (FAO) of the United Nations.

This concludes the afternoon sessions (and the conference presentations). I'm looking forward to the conference dinner later that evening (8pm). Now, there's sufficient time for taking a walk in Innsbruck city center and to have some coffee.

[to be continued .... trrying to achieve 'live'-blogging]

Monday, June 04, 2007

ESWC 2007 - European Semantic Web Conference, Innsbruck (Day 01)



Today, the 4th European Semantic Web Conference starts in Innsbruck (Austria). I arrived already yesterday in the evening by train. By chance, I already met 2 other participants (Pascal Hitzler and Andreas Hotho ... -> bibsonomy) while waiting at Munich train station. Thus, the last part of the train ride was quite entertaining :)

Keynote 1 - 9.00 -10.00
Day 1 of ESWC 2007 is starting with a keynote of Stefano Ceri on 'Design Abstractions for Innovative Web Applications: the case of the SOA augmented with Semantics'. Sorry to say, but -- at least for me -- the talk was not really interesting. Since I am not so much interested in Semantic Web Services, I decided to spent the rest of the morning sessions (after the coffee break) in the Ontology Learning, Inference and Mapping session. In parallel there are session on Semantic Web Services and Semantic Web Use Cases (unfortunately in areas also not very interesting for me, i.e. mechatronics and e-Governement). But, I'm looking forward to the Ontology Engineering session....

Ontology Engineering I - 10.30 - 12.30
The Ontology Engineering session starts with Martin Hepp on 'GenTax: A Generic Methodology for Deriving OWL and RDF-S Ontologies from Hierarchical Classifications, Thesauri, and Inconsistent Taxonomies', where he is referring to a novel methodology for automatically deriving consistent RDF-S and OWL ontologies from informal hierarchies. He demonstrated the usefullness of the approach by utilizing it for transforming the two e-business categorization standards eCl@ss and UNSPSC into ontologies. The approach is based on drawing a random sample from an input classification, letting a human user confirm/reject/adapt the sample, and using this confirmed sample as a basis for further automated classification. The tool will be available here soon.

The second talk is presented by Maciej Janik on 'SPARQLeR: Extended Sparql for Semantic Association Discovery'. Semantic Associations (i.e. complex semantic relationships among entities) in knowledge bases have to be discovered, which comes to the process of finding paths of possibly unknown length that connect the given entities and have a specific semantics. SPARQL for querying RDF databses is extended for the discovery of such paths including the possibility of formulating regular expressions over properties for specifying the required semantics of the queried paths.

Eyal Oren from DERI Galway is speaking about 'Algorithms for Predicate Suggestions using Similarity and Co-Occurrence'. Only through shared vocabularies can meaning be established. Tagging Systems solve this problem by tag suggestions to achieve coherrent vocabulary. The same principle holds for creating distributed RDF databases. Therefore, two domain-independent algorithms for recommending predicates (RDF statements) about resources, based on statistical dataset analysis (i.e. on similarity and co-occurrence). Both algortihms are implemented in ActiveRDF.

Johanna Völker from AIFB Karlsruhe concludes the session with 'Learning Disjointness'. So, why disjointness is important? Of course disjointness axions allows infering new knowledge or modelling errors. But, most ontologies today don't provide disjointness axioms. Based on machine learning, an approach is presented to automated generation of disjointness axioms to be included into ontologies.

Lunchbreak -- as being in Austria I tried the traitional 'Schnitzel' (compared to German Schnitzel, Austrian Schnitzel are very flat :) )

Keynote 2 - 14.00 - 15.00
The afternoon session starts with a keynote given by Ning Zhong from Knowledgne Information System Laboratory on Ways to Develop Human-Level Web Intelligence: A Brain Informatics Perspective. Interesting thing, because I am very curious to know what 'Brain Informatics' should be... First, it's about Web Intelligence (WI). Short Definition: Web Intelligence = Artificial Intelligence + IT. Brain Informatics - on the other hand - is a new interdisciplinary field to study human information processing mechanisms systematically. It's on the intersection of cognitive science, neuro science and WI. The (H)uman brain is regarded as a (I)nformation (P)rocessing (S)ystem (HIPS). There is a gab between WI and Brain Science....
Ok....a little bit too much for me. After several (large) pictures of brains (but few content) I decided to spent the rest of the session down in the lobby. Another interesting phenomenon to mention: computer scientists gather around power outlets (at least in the afternoon, when all the batteries are getting low...)

Best paper Award Session - 15.00 - 16.00
Ok...the battery is back at 42% and the sessions continue with the best paper awards. This time, there are two best papers. The first is presented by Renee Witte from IPD Karlsruhe on 'Empowering Software Maintainers with Semantic Web Technologies'. One of the main challenges in software maintenance is to establish and maintain the semantic connections among all the different artifacts. Basically, the main contibution of the paper is on how Semantic Web technologies can deliver a unified representation (ontologies) to explore, query and reason about a multitude of software artifacts, mainly source code and other ducoments, for being deployed in security analysis, architectural evolution, and traceability recovery between source code and documents....Alas, what is still missing is a standard semantic enabled software development enviroment (e.g. as eclipse plugin...).
The other best paper is presented by Claudio Gutierrez on 'Minimal Deductive Systems for RDF'. We all use RDF for basic knowledge representation. Ofcourse - at least at first sight - RDF documents do look a little bit...lets say...complicated. But, have you ever thought about RDF containing redundancy that can be removed? That's what the authors propose by abandoning some of the RDF predicates while in the same time maintaining its semantic expressiveness. Thus, they obtain a streamlined fragment of RDFS which includes all the vocabulary that is relevant for describing data, avoiding vocabulary and semantics that theoretically corresponds to the definition of the structure of the language. Ok....but do we really want to abandon RDF and substitute it with this RDF core? As brilliant as the paper and the idea is, I guess (and so did also one of the questions to Claudio) in practice it will be only of little relevance..

Personalization I / Social Semantic Web - 16.30 - 18.00
For the 2nd afternoon session I have to switch between two of the parallel sessions. I start with the Personalization session and after the first talk I switch to Social Semantic Web.
Alistair Duke from Next Generation Web Research Group presents a talk on 'Squirrel: An Advanced Semantic Search and Browse Facility'. Squirrel is a tool for searching and browsing semantically annotated data. To achieve this, Squirrel provides combined keyword based search (providing ease of use and speed) and (powerful) semantic search in a hybrid approach. They comine several interesting technologies such as ontology management, named entity recognition on ontology generation and classification to enable features such as result consolidation, natural language generation, ontology based user profiling and device independence.

Ok...searching for the 'Saal Strassburg' was a little bit difficult (because of the missing signs). Thus, I am a little bit late for Jerome Euzenat's talk on 'Towards Semantic Social Networks'. He introduces a Semantic Social Network theory, based on a threelayered model, which involves the network between people (social network -> social layer), the network between the ontologies they use (ontology network -> ontology layer) and a network between concepts occurring in these ontologies ( -> concept layer). He proposes a similarity measure between concepts and is propagating this similarity to a distance and an alignment relation between ontologies (using these concepts). In addition, this distance relation can be used for discovering affinity in the social network (finding people that think the same way as you do...possibly).
The last talk of today is given by Nicholas John Kings on 'Knowledge Sharing on the Semantic Web'. 'The Semantic Web is Dead....', people just do tagging. With a slide like this, for sure you will get some attention (at a Semantic Web conference)...and Nicholas did :) After this eye-catching introduction, he introduces 'Squidz' a tool for automatically classifying browsed web pages against an ontology ('Spyware on Steroids...')), and allowing users to share comments made about those pages to members of a community. After all, the project is intended to test the hypothesis that information sharing is more effective when the software is aware of both the social and technical context of that information. Thus, leading to a hybrid approach combining folkosonies (free annotations of web pages) with formal ontologies.

So....just looking forward to the poster session (and the included dinner of course) and another power outlet, because the batteries are down to 8%(!).

[ok...switching to day 02 .... again trying to achieve 'live blogging'...]

Friday, May 25, 2007

Copyright and Fair Use....

I have found an amazing videoclip about copyright. In his short movie "A Fair(y) Use Tale... Professor Eric Faden from Bucknell University addresses the question of fair use and the copyright law in a humorous but informative way. Interesting thing about is that the entire movie is sampled from short Disney movie clips....and thus subject to copyright law. If the video is deleted from youtube, it can be also retrieved from Stanford Center for Internet and Society.
[found via telepolis]

Tuesday, May 15, 2007

Next Generation Search Engines revisited...

As reader of my blog for sure you know that one of the main topics is (semantically enhanced) searching the web. Recently I was rereading Andrei Broder's short paper on 'A taxonomy of web search'[1], where he was also referring to the three generations of web search engines. His article dates back to 2002. Environment and technology in the web are rapidly changing. So, what about this three generations? Do we already need a 'next generation'? And what about the discussion about 'Search 2.0'?...
But first, let's recall the three generations according to Broder:

  • First generation: search engines are useing almost only on-page data such as text and formatting information to compute result ranking (1995-1997, cf. Alta Vista, Excite, etc...).

  • Second generation: search engines are using off-page, web-related data such as link analysis, anchor-texts, and click-through data (1998-..., cf. Google).

  • Third generation: search engines try to blend data from multiple, heterogeneous sources trying to answer 'the need behind the query'. The computed results are customized according to the user's information needs, taking into account the user's personal data background, context, and intention (now? - ...).

Clearly, search engines of the third generation include social networking information, tagging, user feedback, semantic analysis, recommendations, and trustworthyness of information (according to its source).
In read/write web the topic is also addressed as comparison of traditional search technologies with what they call 'Search 2.0' [2]. As usual, I don't like the 2.0-term. What is discussed there, refers to Broder's definition of 'Third generation' and adds nothing significant new to it (besides the marketing term). But, the article is definitely worth reading, because a lot of recent search engines are referenced and discussed (and also because of the interesting discussion that follows). They distinguish between 'Finding' information and 'Discovering' information, while relating the second term to 'Search 2.0'.

Broder distinguishes different sorts of web search queries:

  1. Navigational: intented use is to reach a particular web page (similar to 'known item' search in classical information retrieval). Therefore, navigational queries usually do have only one 'right' result.

  2. Informational:
  3. intended use is to acquire information assumed to be present on one or more web pages (as in classical information retrieval).
  4. Transactional:
  5. intended use is to find a web page, where further transactions (e.g. shopping) will take place.

If we take social bookmarking services, navigational queries can be computed simply by using the user's personomy (i.e. the set of all tags used by a distinct user). If the goal is to find a web page, which has been already accessed in the past, the page might be found quickly, if the user has registered the page within the bookmarking service (which comes to 'Finding' information). But, the query might also be resolved by using other people's tags, if somebody has tagged the page (with objectively descriptive tags).
Social bookmarking services are also usefull for the other two purposes. In addition, if the page is found, the social networking information can be utilized for 'discovering' new, previously unkown, but related (similar) information (which comes to 'Discovering' information). Hotho et al. present an adaptive ranking algorithm (FolkRank) for social bookmarking systems and discuss the problems that arise for tag-based search engines [3].

But, to answer the 'need behind the query' as Broder states in his definition of 'Third generation search engines', further personalization is mandatory. Only, if the search engine is able to find out the context of a query w.r.t. a given user and a given situation (i.e. even the same user might have different information needs in different situations), then it is possible to grasp the actual context of the query, and thus, also the 'need behind the query'...
[to be continued]

References:
[1] Andrei Broder: A taxonomy of web search, SIGIR Forum 36, pp. 3-10, 2002.
[2] Ebrahim Ezzy, Richard MacManos: Search 2.0 vs. Traditional Search, read/write web, June 20th, 2006.
[3] Andreas Hotho, Robert Jäschke, Christoph Schmitz and Gerd Stumme: Information Retrieval in Folksonomies: Search and Ranking, in Proceedings of the 3rd European Semantic Web Conference, pp. 411-426, 2006.

Tuesday, May 08, 2007

J.D. Salinger - Neun Erzählungen

J.D. Salinger ist sicherlich nicht nur für mich ein ganz besonderer Erzähler. Wie viele andere auch, habe ich seinen großen Roman "Der Fänger im Roggen" bereits in der Schule gelesen. Nicht, weil wir diesen im Englischunterricht lesen mussten, sondern weil mich die Erzählungen meiner Bekannten aus dem Englisch-LK (man stelle sich vor, ich konnte Englisch als Fremdsprache abwählen und habe Latein als Abiturfach gewählt...) irgendwie neugierig darauf gemacht hatten. Natürlich habe ich mich damals mit meinen beschränkten Englischkenntnissen (sic!) nicht an die Originalausgabee gewagt, sondern hatte mit der Böll-Übersetzung Vorlieb nehmen müssen (ohne zu wissen, dass die Übersetzung von Heinrich Böll war). Trotz aller Schwächen der deutschen Übersetzung hat mich der Roman damals fasziniert, glaubte ich doch in diesem Roman erkannt zu haben, was es ausmacht, eine gute Geschichte zu schreiben (zumindest damals und in meinen Augen...). Irgendwie passiert ja auch nicht wirklich etwas in diesem Roman, der ja eigentlich auch nur eine auf Romanlänge aufgeblasene Kurzgeschichte ist.

Holden Caufield, der "zerbrechlich" wirkende und stets altklug daherredende Held dieser Geschichte aus den 50er Jahren ist aus dem Internat herausgeflogen und vorzeitig - es ist bald Weihnachten - auf dem Weg nach Hause nach New York - ohne natürlich gesteigerten Wert darauf zu legen, in die offenen Arme seiner Eltern zu laufen. Aber das ganze ist ja eigentlich nur ein Rahmen für viele kleine Erzählungen....alles Erzählungen, die von "verpassten" Gelegenheiten und Chancen erzählen. Immer wieder gerät Caufield in eine vielversprechende, entscheidende Situation und das "was-wäre-wenn" geht auf der einen Seite dem Romanhelden und auf der anderen Seite natürlich auch dem Leser durch den Kopf....ohne dass der Romanheld die ihm gebotene Gelegenheit, der Geschichte einen anderen Ausgang zu geben, jemals ergreifen würde. So ist der Leser irgendwie enttäuscht, aber auf der anderen Seite fühlt man sich gekitzelt oder vielmehr angestachelt, um zu sehen, welche Möglichkeiten die nächste Situation birgt, in der Salinger seinen Helden geraten lässt, und ob er diesmal nicht vielleicht doch etwas daraus macht....

Etwas anders ist es in diesem Band mit 9 frühen Kurzgeschichten Salingers (allesamt erschienen vor dem 'Fänger im Roggen'), in der er auch viel Biographisches verarbeitet. Wie üblich passiert in den Geschichten auch nicht wirklich etwas. Aber es ist diese Atmosphäre... Stets schafft es Salinger, eine Art Melancholie über Allem schweben zu lassen. Es kommt gar nicht darauf an, was seine Figuren tatsächlich tun und wie sie agieren. Vielmehr sind es die Dialoge bzw. die inneren Monologe, die seine Figuren führen und die sie so besonders machen. Die Nebensächlichkeiten, die in diesen kurzen Episoden zur Hauptsache werden, die fragile Verletzlichkeit der Figuren, das Sich-verlieren in Oberflächlichkeiten, die doch so vieles bedeuten....Ähnliches kennt man aus den Kurzgeschichten von Raymond Carver, der sich Salinger sicherlich auch als Vorbild genommen hatte (besonders zu empfehlen ist die Kurzgeschichtensammlung 'What We Talk about When We Talk about Love').

Die meisten Geschichten von Salinger haben etwas mit dem Erwachsenwerden zu tun. Die Spannung, die sich aus dieser Potentialdifferenz ergibt, wenn die handelnde Figur auf der Schwelle zwischen beiden Welten steht, das Erkennen, dass die Lüge einen Stellenwert in der Welt der Erwachsenen besitzt, vor der man nur als Kind gefeit zu sein scheint....

So ist erste Geschichte "A perfect day for banana-fish" des vorliegenden Buches eine besonders düstere und bizarre Geschichte. Eine der ersten Geschichte, die Salinger 1948 im "New Yorker" veröffentlicht hat und die ihn über Nacht bekannt machte. Der Protagonist der Geschichte ist ein scheinbar etwas verwirrter Kriegsveteran, freundet sich im Urlaub mit einem kleinen Mädchen an und erzählt ihr am Strand eine Geschichte von Bananenfischen. Dann geht er zurück auf sein Hotelzimmer, legt sich zu seiner schlafenden Frau ins Bett und jagt sich eine Kugel in den Kopf....

Salinger bleibt, obwohl er als einer der meistgelesenen (und meistinterpretierten) amerikanischen Autoren gilt, ein ungewöhnlicher, irgendwie nicht greifbarer Charakter. Er nahm an einigen der heftigsten Schlachten des 2. Weltkriegs teil, so etwa bei der Landung der Aliierten in der Normandie oder auch in den Ardennen. Tatsächlich war er auch selbst aufgrund eines Kriegstraumas kurzzeitig in Behandlung. Während seiner Zeit in Europa traf er auf Ernest Hemingway, der als Kriegsberichterstatter teilnahm und Salinger eine "außerordentliche Begabung" bescheinigte. 1965 veröffentlichte Salinger seine letzte Erzählung -- insgesamt hat er neben dem "Fänger Im Roggen" lediglich knapp über 30 Kurzgeschichten veröffentlicht. Seither lebt er zurückgezogen und die ganze Welt wartete immer wieder auf einen neuen "großen Wurf"....der wohl nicht mehr kommen wird.

siehe auch:
Georg Dietz: Hinaus ins Leben - Alle reden über Salingers 'Fänger im Roggen', dabei ist sein Roman 'Franny und Zooey' viel schöner..., Die ZEIT, 22.03.2007 Nr. 13.

Online Umfrage zum IT Gipfel 2006 - Teil 2


Die in diesem Blog am 27.03.2007 angekündigte Umfrage zur Einrichtung des "Gipfel-Blogs" anlässlich zur Auf- und Nachbereitung des im Dezember 2006 am HPI Potsdam ausgerichteten 1. IT-Gipfel der Bundesregierung, die mein Kollege Justus Bross initiiert hatte, ist jetzt offiziell beendet. Mehr als 350 Online-Fragebögen wurden ausgefüllt. Dafür an erster Stelle erst einmal recht herzlichen Dank für die fleissige Mitarbeit!
Die Endauswertung läuft und auf die Veröffentlichung entsprechender Ergebnisse werde ich an dieser Stelle natürlich hinweisen. Eine erste wissenschaftliche Arbeit zum Thema wurde bereits für die e-society 2007 in Lissabon akzeptiert, an der final version wird derzeit noch gearbeitet.

Thursday, May 03, 2007

A map of the Social Web


Via media-ocean I found an interesting map of the 'currently known' Social Web (a.k.a. Web 2.0). Here you might take a look at the map in full size. Interesting thing about, the sizes of the single areas (communities) on the map correspond to the approximate number of members. Also the layout has its purpose. On top, you'll find the 'practicals' (Yahoo, Windows Live...), while at the bottom there stick the 'intellectuals' (wikipedia, sourceforge,...). The left is more concerned about 'real life' (I'm missing XING...), while the right is more 'web centered' (second life, antropomorphic dragons, etc...). You can even find good old usenet ...but only as a dashed outline (maybe it is about (or has already) to vanishid and only remembered in old myths like the legendary Atlantis..)
Nice thing to notice, there's also Qwghlm....I can't remember having seen it on any map before :)

Tuesday, May 01, 2007

veni, vidi, emi ... according to Google


Two weeks ago, Google bought Double Click for an incredible amount of money. But for what reason, you might ask....well, to become the dominant internet advertiser. But that is too simple and too short-sighted, as pointed out last week by the German newspaper 'Die Zeit'. According to an article of Götz Hamann, everybody who is worrying about Google to become No. 1 internet advertiser is as short-sighted as this famous Gaulic chief 2000 years ago complaining about Julius Caesar having defeated the entire Gaul. But, Julius Caesar's primary ambition was not only to conquer Gaul, but to become the leader (cesar) of the Roman world empire. And the Google managers .... they also have something else in mind than just becoming the dominant internet advertiser.
They want to preveil their rules in the global advertising market....against the tv networks and also against the newspapers. In relation to the attention that the newspapers get, they receive way too much advertising. This is because of the brokers distributing advertising for the big corporations. These brokers are one of the reasons, why Google is not able to grow as fast as it possibly could. Thus, Google will continue to buy...and who knows, what company will be next....
Alas, and again we will hear: veni, vidi, emi....

(I came, I saw, and I bought..... freely adapted from H.C. aka Gaius Julius Caesar)

Tuesday, April 24, 2007

Marina Lewycka - Die kurze Geschichte des Traktors auf Ukrainisch


Ich bin jetzt schon zwei Bücher im Rückstand, was meine Rezensionen angeht...und bevor ich noch vergesse, was ich zu diesem Buch schreiben wollte, wird es jetzt höchste Zeit....
Wann bin ich zum ersten mal auf das Werk gestoßen? Ich glaube, es war in der S-Bahn (S7) vom Berliner Hauptbahnhof nach Potsdam im vergangenen September. Ich las meine ZEIT und mir fiel dieses Buch mit dem interessanten Cover mit dem "Kartoffeldruck-Traktor" (oder doch eher sozialistisches Propagandaplakat?) auf, das eine Frau mir gegenüber gerade interessiert las. Und dann natürlich der Titel "Kurze Geschichte des Traktors auf Ukrainisch"...Als erstes musste ich an "Eine kurze Geschichte der Zeit" und meine eigene "kurze Geschichte des Internets" (im WWW-Buch) denken, aber der Zweifel, worum es sich bei diesem Buch wohl handeln könnte, lies mir keine Ruhe mehr. Wieder zu Hause in Weimar beim nächsten Besuch der Buchhandlung (ja, auch ich nehme Bücher noch gerne in die Hand, blättere darin und lese an irgendeiner beliebigen Stelle quer....ich brauche einfach dieses 'haptische Erlebnis'...) las ich mir dann den Klappentext durch, der irgendwie alles andere versprach, als ich mir eigentlich vorgestellt hatte....

"Geschichte des Traktors auf Ukrainisch" ist eigentlich Nikolais Projekt, in das er sich flüchtet, als alles den Bach hinunterzugehen droht. Nikolai stammt aus der Ukraine und ist nach dem Krieg mit seiner Familie nach England und in ein besseres Leben ausgewandert. Jetzt ist hat sich der 84-jährige Wittwer in den Kopf gesetzt, eine gut 50 Jahre jüngere blonde ukrainische "Sexbombe" aus ihrem Elend heraus aus der postkommunistischen, von Korruption und Unsicherheit geprägten Ukraine durch Heirat zu "erretten". Klar, dass das seinen beiden Töchtern -- der "Trozkistin" Nadja und ihrem Upper-Class Ggenstück Vera -- nicht gefallen wird. Beide hatten sich über das Erbe der Mutter zerstritten und reden nun schon seit Jahren kein Wort mehr miteinander. "Valentina" heißt der gemeinsame Feind und das personifizierte Übel, das es auszutreiben gilt, ....und Nikolai macht auch noch seine letzten Ersparnisse flüssig, um seinem "Täubchen" noch eine Brustvergrößerung zu spendieren.
Soweit, so gut. Wenn es jetzt immer so weiter ginge, hätte Marina Lewycka nichts weiter geschrieben als eine seichte Einwandererkommödie. Aber in Rückblenden wird immer wieder in ein Blick in die Familiengeschichte Nikolais geworfen und damit auch in die zeitgeschichtliche Ukraine: Stalin und der stalinistische Terror, die von ihm herbeigeführte Hungersnot, mit der er sich die Ukrainer gefügsam machen wollte, der zweite Weltkrieg, die Deutschen....
Zwischendurch aber wird es dann wieder bizarr: Valentinas trashiger "Luxus-Geschmack", Nikolais "Toshiba-Äpfel" (Nein, das ist keine neue wohlschmeckende japanische Apfelsortenzucht, sondern der Name hängt mit dem Hersteller von Nikolais Mikrowelle zusammen...), Nikolais (altersbedingte) Probleme mit seiner körpereigenen "Hydraulik", der Versuch der beiden Schwestern Valentinas Einbürgerung mit allen Mitteln zu unterminieren, der an der Unzulänglichkeit der britischen Behörden scheitert. Am Ende bleibt Nikolai auf alle Fälle seine "Geschichte des Traktors auf Ukrainisch", die ebenfalls mit einigen Skurilitäten aufwarten kann und auf ungeahnte Weise ihren Weg in die Ukraine nimmt....
Insgesamt ein schönes und lesenswertes Buch. Die beschriebenen Situationen geraten mitunter reichlich bizarr (schon wieder...). Die Vorstellungen und Wünsche zweier Einwanderergenerationen könnten unterschiedlicher nicht sein. Um den Kreis wieder zu schließen, für mich ein ideales Buch um die Fahrt in der S-Bahn (S1 Zehlendorf -> S7 Potsdam) etwas kurzweiliger zu gestalten....

Tuesday, April 17, 2007

Summer semester starts at FSU Jena...

Yesterday, the summer semester started and hey....it's really summer! I can't remember any summer semester start with such high temperatures. This semester, I have to give 2 lectures: 'Einführung in die Informatik II' (introduction to computer science II), which takes place mondays and fridays, and 'Informatik der digitalen Medien' (computer science and digital media), also on mondays. The later wil be recorded and will soon be available also for offline participation :)
Intersting thing to mention, this semester I try to maintain a blog for each of the lectures for providing additional information, reading materials, bibliographic notes, etc. You will find the two new blogs at
Of course I will comment on my experiences about managing lectures and courses with a blog.

Friday, April 13, 2007

Tag search vs. keyword search......substitution or complement


As you know, collaborative tagging systems (CTS) have become rather popular Web 2.0 applications (although I don't like the term 'Web 2.0'...please use 'Social Web' instead). A CTS allows each registered user to maintain her own tags that add semantic annotation to corresponding web links. Today, 'tags' are simple unformatted text data. Tags are transporting meaning, i.e. semantics. Because the user is free to choose any text string (symbol) for a certain semantics (concept) related to a given resource (web page or object). To communicate this semantics, two or more users have to agree upon using the same symbols denoting an object (remember the semiotic triangle [1]).

First difficulty is syntax: there are several posibilities to write a word (of course not all of them are necessarely correct or not all of them belong to the same language). The problem becomes even worse, if one tries to combine several words in a single string (how to separate words?...use CamelCase, underscores, blanks, ...).
Next comes language dependent problems such as polysemy (homonyms or synonyms). For homonyms we have the same symbol but different meanings, and for synonyms vice versa.

Syntax and language dependent problems alone cause tag based search to be more difficult to handle than traditional keyword based approaches (by keyword based approach we refer to full text search or keywords assigned to the resource by the resource author or by some designated expert). For full text search, a query string given by the user (or at least its word stem) has to match some string being part of the searched resource. Keywords given to a resource by some designated expert should meet some level of objectivity and thus, a user might be able to 'guess' the keyword while thinking of a well suited query string. Keywords provided by the author refer to her specific point of view (same with tagging). These 'subjective' keywords are much harder to guess for the arbitrary user, because she does not necessarely share the same context with the (tag) author.
In CTS we distinguish several distinct categories of tags [2]. Among others, there are two fundamental different tag categories: descriptive tags and functional tags. Descriptive tags refer to more objective tags, tags that are used to describe a resource in some general maner. Functional tags on the other hand do include an intended functional use esp. for the tag author and thus, are more subjective. While descriptive tags serve better for general web search, functional tags are useful most for their authors, but not for other users.
To analyse the benefit of tagging for web search, we have to take into account that many users are providing tags for a specific resource. Depending on the distribution of the tags attached to a specific resource, one can observe a power law (see also [2]). Few tags are used very often, while most of all the tags attached to a resource do occur only scarcely. Those few tags rather often can be identified with descriptive tags, while the so called 'long tail' of the other tags often belong to the category of functional tags.
So, how can we make use f that fact?
In [3] the authors propose to use tags for search query refinement. For that reason, they distinguish between two defferent categores of tags (that do not necessarely correspondent with descriptive and functional tags). They distinguish search keywords as being the most popular tags assigned to a resource, which can help to increase the hit rate if being used for query refinement, and exploration keywords, which cannot. Because exploration keywords reflect the personalized search context and information need of an individual user they are supposed to be helpful for the exploration process.

Monday, April 09, 2007

Turn your smile on....


Finally, the video clip is there! My friend schminktante as head of makeup department did the groovy 60s style make up in a music video being the diploma thesis of two students from bauhaus university in Weimar.
You may find some backstage information and also some pictures. Anyway....the setting reminds me somehow to the movie 'Catch me if you can'...
So...enjoy and 'turn your smile on'!

Tim Berners-Lee: The Web - Looking Back, Looking Forward


Another talk given by Tim Berners-Lee on 13th March 2007 in London as keynote on the start of this year's prestigious BCS Lovelace lecture. Tim Berners-Lee was granted the Lovelace Medal (named after Ada Lovelace, the daughter of Lord Byron and founder of scientific computing) in 2006. Here is the interview entitled 'Isn't it semantic?' from 2006 with TBL on winning the Lovelace medal. Usually the winner of the Lovelace medal has to give a lecture in the following year, and thus, this years Lovelace lecture is given by Berners-Lee.

The Lovelace Medal is presented to individuals who have made a contribution which is of major significance in the advancement of Information Systems or which adds significantly to the understanding of Information Systems. Among the winners are rather famous computer scientists such as Douglass Engelbart, inventor of the computer mouse and pioneer of GUI, networking, and hypertext systems, who received the medal in 2001, or Linus Torvalds, developer of the LINUX operating system, who received the award in 2000.

(video discovered at Serge Linckels)

Saturday, April 07, 2007

re:publica - Leben im Netz, vom 11. bis 13. April in Berlin


Ich freue mich schon nächste Woche auf das Treffen mit Freunden und Bekannten auf der re:publica in Berlin. Das "Blogger"-Event findet vom 11.-13. April 2007 in der Kalkscheune in Berlin statt und verspricht mit bislang mehr als 300 Anmeldungen und interesanten eingeladenen Vorträgen recht spannend zu werden.
Nicole Simon hat bereits im Vorfeld der re:publica zahlreiche Interviews und Statements mit Teilnehmern und Veranstaltern gesammelt und veröffentlicht diese als PodCast, darunter auch ein Beitrag von Hard Blogging Scientist Jan Schmidt zum Thema Wissenschaftler in der Blogosphäre.
Die Akkreditierung (d.h. der Ticketvorverkauf) hat bereits geschlossen (ich habs mal wieder 'verschwitzt'), aber es gibt noch Tickets an der Tagskasse. Also werde ich am Mittwoch mal vorbeischauen und berichten...
Fast vergessen, die Hard Blogging Scientists richten dort am Freitag, den 13. (ausgerechnet...) um 14.30 Uhr ein Podium/Workshop/Plugin zum Thema 'Wo geht's denn hier in meinen Elfenbeinturm?' aus (also noch ein Tagesticket kaufen...).

Friday, April 06, 2007

Les Gammas sont arrives......


Tatsächlich, sie sind also mitten im Berliner Hauptbahnhof gelandet. Wer? Na die Gammas!
Erinnert sich noch jemand an diesen französischen Sprachkurs 'Les Gammas!', der quasi als Mini-Soap Ende der 70er Jahre mit der Landung dreier Außerirdischer in einer Art Weltraumei (sic!) in Frankreich (also müssen sie wohl auch französisch lernen...) in den dritten Programmen über die deutschen Bildschirme flimmerte...? Verdammt lang her, aber gestern auf dem Nachhauseweg am Berliner Hauptbahnhof fotografiert (laut Presseinformation der deutschen Bahn das größte Osterei der Welt, 8,35m hoch, aus 10.000 Primeln bestehend und noch bis zum 9. April zu bestaunen...)

Tuesday, April 03, 2007

Tim Berners-Lee: The Semantic Web of Data


Tim Berners-Lee is talking about 'The Semantic Web of Data' in a video at Technology Review. In this short presentation the inventor of the world wide web is trying to explain in short, what the Semantic Web is all about, and how it will affect our way to look at data, to understand data, and to work with data (it's all about integration of heterogeneous data...).
('video found at Semantic Bits)