![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgmrbXsUQ-GGpBKrT11oXnQKi_kE21UwQ8B3zRllccNK0DyLphHQlosmseDta1CQubKyQjyjUIVgL9rdy-4lcOu8kzNYKqUjFHzYT-qj1sQwGZ-A-9xXHFUuMLLo9qT09RhyS_klQ/s200/hg.gif)
Na perfekt, das wissenschaftliche Programm macht erst einmal von 11 Uhr bis 13.30 Uhr Pause....und Rico ist noch gar nicht da, sondern übt seinen Vortrag -- hat aber versprochen, bis 15 Uhr hier zu sein. Naja...MIttagessen gibt es dann im 'Cum Laude' und dann werde ich mal sehen, ob sich hier irgendetwas interessantes bis zum frühen Nachmittag abspielen wird....
O.k., ich hab doch noch eine 'sinnvolle' Beschäftigung gefunden. Im Senatssaal findet eine Podiumsdiskussion zum Thema 'Wachstum durch Cluster' statt. Hans Peter Hiepe vom Bundesministerium für Bildung und Forschung, Dr. Joachim Quantz und Reiner Thiem von xmlcity:berlin, Dr. Carsten Rudolph von Microsoft und Prof. Jochen Schiller, Vizepräsident der FU Berlin. Nach einer kurzen Einleitung und Vorstellung der Teilnehmer durch Herrn Thiem äußern sich zunächst alle Teilnehmer der Podiumsdiskussion zum Thema 'Innovationsförderung'. Obwohl -- so Prof. Schiller -- an den deutschen Hochschulen verstärkt gegründet wird (insbesondere auch an der FU Berlin), geht -- so Dr. Rudolph -- die Anzahl der Firmengründungen an Universitäten insgesamt zurück. Herr Hiepe kritisiert die an den Hochschulen übliche Praxis, Gründungsinitiativen -- wie das durch ihn initiierte EXIST Programm (von dem ja auch OSOTIS profitiert hat) -- zu sehr wie ein akademischer Aufgabenkatalog im Rahmen einer Art Weiterqualifizierung abgehandelt werden. Kritik an den Existenzgründungsinitiativen und Programmen wird am jeweils zu starren zeitlichen Rahmen geäußert, den diese unterliegen. Das EXIST-SEED Programm fördert -- ohne anschließende Evaluation -- jedes Projekt, das sich dafür qualifiziert für genau ein Jahr. Wie sich das zu gründende Unternehmen danach finanziert, darum muss sich das Unternehmen selbst kümmern. Leider gibt es viele Projekte, die weitere 6 Monate Entwicklungsarbeit benötigen, die leider nicht weitergefördert werden können. Hier wäre auch meiner Meinung nach Bedarf, nach einer entsprechenden Evaluation die Möglichkeit einer Weiterförderung einzuräumen.
So...leider herrschte im lokalen WLAN seit dem M ittagessen Funkstille....soviel zum Thema Live-Blogging. Nun ja....hier also mein Bericht von unserem Nachmitteg:
Lutz Suhrbier (FU Berlin) 'Vertrauenswürdige Aussagen im Semantic Web'
Vertrauen ist -- laut Niklas Luhman - nichts anderes als eine Art Mechanismus zur Reduktion sozialer Komplexität. Man leistet eine Art 'riskante Vorleistung' als potentiell unsichere Investition in die Zukunft. Nachdem dieser Begriff geklärt wäre, benötigt man für das Thema noch das 'Semantic Web' (als Anwendungsraum) und die 'Inferenz' oder das 'Reasoning', dass uns in die Lage versetzt, aus vorhandener Information neue Information zu schließen. Das eigentliche Problem reduziert sich dann darauf, wie eine Absicherung der im Semantic Web befindlichen Aussagen getroffen werden kann -- und welche Auswirkungen hat dies auf die Verlässlichkeit von daraus hergeleiteten Aussagen?
Lösungsansätze sollten dabei Autorenbezogen sein. Dazu muss als erstes zweifelsfrei zugeordnet werden können, Aussage X ist von Autor Y getroffen worden. Das ist nur möglich, wenn jede Aussage (und jeder Autor) einen persistenten Bezeichner (also z.B. einen URN) besitzt. Daraufhin hat dann auch jeder Benutzer Z die Möglichkeit, eine von Y getroffene Aussage zu bestätigen oder nicht. Zudem kann eine Aussage auch von einer über jeglichen Zweifel erhabenen Instanz (also einer Art 'Trust-Center') beglaubigt werden. Darauf aufbauend wurde ein Konzept einer 'Trusted Semantic Web Infrastructure' inklusive 'Semantic Web Zertifizierungsstelle' und 'RDF-Zertifikaten' vorgestellt....allerdings eben nur als Konzept und nicht im Sinne einer konkreten Implementation. Also....irgendwie war mir das alles bereits bekannt bzw. war die Übertragung auf das Semantic Web 'straightforward'.
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEguKMTIA8q2bDcGE7UbMCPXBkBEc0wxxUc9IuapTLyZiG0OODcutg5Rqoq7y3rAAiX4NrowCP-SYLx_YhvKxP08tU9zwqBqAh4y7uboMrGsVrIeuoex0TWCZk27QbcaW7C3MPaV8A/s200/maariwa.png)
Im Anschluss trägt Stefan Thalmann von der Universität Innsbruck zum Thema 'Kollaboratives Tagging zur inhaltlichen Beschreibung von Lern- und Wissensressourcen' vor. Zunächst wird auf die unterschidlichen Varianten der Metadatengenerierung eingegangen. Während subjektive Metadaten wie Schlagworte oder Bewertungen nur schwierig oder gar nicht auf automatische Weise zu gewinnen sind, lassen sich objektive Metadaten (Charakteristika) relativ einfach automatisch gewinnen. Danach wird auf das 'Tagging' eingegangen. Allerdings unterscheidet Thalbach lediglich zwischen allgemein anerkannten 'objektiven' Tags und persönlichen 'subjektiven' Tags und verzichtet auf eine weitere Untergliederung in objektive und funktionale Tags, wobei hier objektive Tags inhärente Eigenschaften und Charakteristika der Ressource kennzeichnen, während funktionale Tags stets in einem speziellen Kontext stehen. Eine nachfolgende Studie, in der Studierende mit Taggingaufgaben betraut wurden, brachte meines Erachtens aber auch keine bahnbrechenden neuen Erkentnisse.
So...kurze Nachbesprechung/Maneuverkritik mit Rico, E-Mails beantworten (da das Netz wieder funktioniert, Bloggen, und warten auf das 'Networking am Buffet'...
Apropos Buffet: dieses war zwar recht lecker (immerhin gabe es guten Wein und ein leckeres kaltes Buffet), aber mit dem Networking haperte es dann doch, da vielleicht höchstens 20-30 Leute vom heutigen Tag übrig geblieben waren. Insgesamt hatte ich auch den Eindruck, dass die Teilnahme gegenüber letztem Jahr diesmal sehr gering ausfiel.