Benutzerspezifische Werkzeuge
 

Vorträge

Digitalisierte Gesellschaft - Wege und Irrwege

FIfF Jahrestagung 2012

Übersicht Programm | Veranstaltungsort | Flyer (pdf) | VorträgeArbeitsgruppen | Anmeldung | Unterstützer


Übersicht Vorträge

Zwischen Guckkasten und Rummelplatz – Konstanten und Wandel in der Welt der Kindermedien
Prof. Dr. Manfred Nagl, Hochschule der Medien Stuttgart

Irrwege der Anwendung des Computers für das Lernen und die Verantwortung der Informatik für Bildung
Prof. Dr. Heidi Schelhowe, Digitale Medien in der Bildung, Informatik, Universität Bremen, TZI

Neue Lebens:Welt:Krisen
Anja Lorenz, TU Chemnitz

Techno-Security - Alltägliche Überwachung, präventive Sicherheit und moderne Kriegsführung
Jutta Weber, Universität Paderborn, Institut für Medienwissenschaften

Was hat „Eigentum“ im Urheberrecht zu suchen? – Mit Reförmchen ist es nicht länger getan
Prof. Dr. Rainer Kuhlen, Department of Computer and Information Science, Universität Konstanz

Wider das unauslöschliche Siegel
Peter Bittner, Bad Homburg

 

Zwischen Guckkasten und Rummelplatz – Konstanten und Wandel in der Welt der Kindermedien

Die Medien, mit denen wir in unserer Kindheit umgehen, beeinflussen nicht nur unser Wissen, sondern auch unseren Umgang mit Technik, unser Informations- und Konsumverhalten und die Art, wie wir uns die Welt aneignen. Überdies sind Kindermedien technisch gesehen oft besonders innovativ und sie sind bevorzugte Plattformen für ideologische Propaganda und Werbung. Dennoch sind diese Medien – von der Kinderliteratur einmal abgesehen – nach wie vor ein Stiefkind der Forschung. In der Öffentlichkeit finden sie allenfalls unter den periodisch auftretenden, aber begrenzten Aspekten der Schädlichkeit gewalttätiger Inhalte oder ihres Suchtpotenzials Beachtung.

Im Rahmen eines anschaulichen Streifzugs durch die Geschichte der Kindermedien werden wichtige Veränderungen und Funktionen – wie der Wandel in der Beurteilung von Gewalt, der zunehmende Verlust der Materialität der Speichermedien oder ihr Einfluss auf das Konsumverhalten und die Alltags- und Festkultur – angesprochen. Gleichzeitig werden aber auch erstaunlich gleichbleibende Probleme und Bedürfnisse thematisiert –, etwa der Hunger nach Bildern, die Angst der Erwachsenen vor dem Kontrollverlust über die Medien der Kinder oder der Antagonismus zwischen Unterhaltung und Wissensvermittlung.

Prof. Dr. Manfred Nagl

Irrwege der Anwendung des Computers für das Lernen und die Verantwortung der Informatik für Bildung

Eher von Training als von Bildung ist zu sprechen, wenn man einen Großteil der Anwendungen des Computers im sogenannten eLearning betrachtet, deren Art der Informationsaufbereitung, der Steuerung, der Interaktion, der Testverfahren. Neuerdings allerdings werden Computer (die dann natürlich Medien heißen) in Bildungszusammenhängen auch propagiert als Möglichkeit, Menschen überhaupt vergessen zu lassen, dass sie lernen (z. B. über Serious Games). Lernen soll einfach als Spaß und Spiel erscheinen und sich unbemerkt von den Menschen, hinter ihrem Rücken, ereignen. Beide Wege scheinen mir wenig geeignet, die Informatik in ihrer Verantwortung und ihrem Beitrag zu Bildung auszuzeichnen.

Ich möchte jedoch in meinem Beitrag nicht nur solchen – wie ich meine – Irrwegen der Informatik in Sachen Bildung nachgehen, sondern auch positiv ein Konzept des „Design für reflexive Erfahrung“ vorschlagen. Darin sollen stoffliche Erfahrung und spielerischer Zugang eine Rolle spielen. Gleichzeitig aber sollen Computermedien den Menschen nicht das Denken abnehmen, sondern sie – im Gegenteil – zum Nachdenken animieren. Ein solches Design möchte die Modellbildungen, die Grundlage jeder programmierten Anwendung sind und die jedoch in der Interaktion hinter dem Interface verschwinden, wieder sichtbar und zugänglich zu machen. Aus unserer Arbeit in der Arbeitsgruppe dimeb an der Universität Bremen möchte ich praktische Beispiele von Digitalen Medien und deren Einbettung in Bildungskontexte vorstellen.

Prof. Dr. Heidi Schelhowe

Neue Lebens:Welt:Krisen

Kontinuierliche Nachrichtenströme, ständige Statusaktualisierungen von Freunden, Kollegen oder sogar Programmen und Maschinen sowie die eigene Präsenz und Interaktion in sozialen Netzwerken sind nur einige der heutigen Ausprägungen des Social Webs. Die wissenschaftliche Untersuchung und Erklärung der damit verbundenen Auswirkungen auf Individuum und Gesellschaft hat dabei gerade erst begonnen: Zwar stehen die Vorteile von Social Software besonders im Unternehmens­einsatz unter dem Schlagwort „Enterprise 2.0“ im Interesse vieler Forschergruppen und Konferenzen, die Betrachtung von Nebenerscheinungen und potenziell negativen Phänomenen hingegen finden insbesondere in Fachrichtungen mit starkem Technikfokus wie der Informatik nur allmählich ihren Weg in die wissenschaftliche Auseinandersetzung.

Die Ursache hierfür liegt nicht zuletzt in der Multidimensionalität des Problemfeldes begründet. Sie macht es erforderlich, die vielschichtigen Effekte dieser Entwicklungen interdisziplinär zu untersuchen und zu diskutieren. Mit diesem Workshop soll eine Plattform geschaffen werden, auf deren Basis die aktuell diskutierten Problemfelder, die mit der Entwicklung des Social Web einhergehen, untersucht und gleichzeitig ganzheitliche Lösungsstrategien angestrebt werden können.

Zielgruppe: Die bisher erzielten Erkenntnisfragmente finden sich verstreut über zahlreiche Disziplinen (neben der Informatik vor allem in der Medienforschung, der Biologie, der Medizin, der Psychologie, den Politikwissenschaften, den Wirtschaftswissenschaften und der Soziologie). Durch interdisziplinären Erkenntnisaustausch einen fachbereichsübergreifenden Erkenntnisfortschritt zu befördern ist daher wesentliches Ziel des Workshops.

Anja Lorenz

Techno-Security - Alltägliche Überwachung, präventive Sicherheit und moderne Kriegsführung

Schon in den 1990er Jahren wiesen die Politikberater John Arquilla und David Ronfeldt darauf hin, dass die digitale Revolution Konflikte und Kriegsführung grundlegend verändern wird. Neben Info-, Net- und Cyberwar entwickelte sich auch eine neue Idee ziviler Sicherheit, die ich als ‚Techno-Security‘ bezeichnen möchte. Auch sie wird geleitet von einem Traum der ‚Preparedness‘, der möglichst perfekten Kontrolle digitaler Infrastrukturen und der umfassenden Auswertung aller Datenströme in Echtzeit. Problematische ‚evil-doer‘ sollen mit Hilfe von biometrischen Pässen, Kameraüberwachung per Drohne oder Gesichtserkennungssystemen – etwa in Fußballstadien oder an Grenzübergängen – in Echtzeit identifiziert und verfolgt werden.

In meinem Beitrag werde ich die neue ‚Techno-Security‘ mit ihrer Verschränkung von digitalen Infrastrukturen, gouvernementalen Sicherheitskonzepten und militärischem Kontext skizzieren und ihre alltäglichen Auswirkungen diskutieren.

Jutta Weber

Was hat „Eigentum“ im Urheberrecht zu suchen? – Mit Reförmchen ist es nicht länger getan

Das gegenwärtige Urheberrecht begründet sich weitgehend über das Konzept des geistigen Eigentums der UrheberInnen, ohne dass es bislang systematisch zufriedenstellend geklärt ist, ob und wie „Eigentum“ auf immaterielle Objekte, die Wissen und Information repräsentieren, übertragen werden kann. Weiterhin schützt das Urheberrecht zwar nach dem Wortlaut des Gesetzes die Persönlichkeits- und Verwertungsrechte der UrheberInnen. Faktisch ist das Urheberrecht aber längst ein Handelsrecht geworden, bei dem vor allem die Interessen der kommerziellen Verwertung durch die Informations-/Verlagswirtschaft im Vordergrund stehen, weniger der Nutzen für die einzelnen Menschen bzw. für Wirtschaft, Gesellschaft und Kultur. „Geistiges Eigentum“ ist daher tatsächlich eher ein „Kampfbegriff“ (Hoeren) geworden, durch den heute allerdings weniger die Autorenrechte behauptet werden, sondern die ihrer Verleger, obgleich diese aus urheberrechtlicher Sicht gar kein Eigentum geschaffen oder erworben haben, sondern lediglich Nutzungsrechte.

Es fragt sich also, ob nicht ein umfassender Wandel für die Regulierung von Wissen und Information erforderlich ist. Reichten für die Wahrnehmung der Rechte der UrheberInnen nicht deren Persönlichkeitsrechte aus? Und muss die Verwertung überhaupt über das Urheberecht geregelt werden? Sollte das bisherige, durch den Dreistufentest festgeschriebene Dogma nicht auf den Kopf gestellt werden, so dass nicht mehr die kommerzielle Verwertung der Default-Wert und die Einschränkung der exklusiven Verwertungs-/Nutzungsrechte nur die stark zu begründende Ausnahme ist, sondern, genau umgekehrt, die freizügige Nutzung der Regelfall im Interesse individueller, kultureller und gesellschaftlicher Entwicklung und die kommerzielle Nutzung der besonders zu begründende Ausnahmefall.

Das weitere Basteln an einzelnen Regelungen im Urheberrecht – das zeigen deutlich die kaum verständlichen, kaum nutzbaren und nicht nützlichen Schrankenregelungen, die an sich den NutzerInnen zugute kommen sollen – macht kaum noch Sinn. Es sieht auch so aus, dass der seit etwa 5 Jahren angekündigte Dritte Korb der Urheberrechtsreform in dieser Legislaturperiode kaum mehr von der jetzigen Regierung auf den Weg gebracht werden kann. Vielleicht ist der dringend nötige Neuansatz, der vorsichtig ja auch von den Parteien der Grünen, der Linken, mit etwas Abstand auch von der SPD und radikaler von den Piraten gefordert ist, nur in einem veränderten politischen Umfeld und vor allem in einem veränderten breiteren gesellschaftlichem Umfeld mit normativen Vorstellungen möglich, die dem Umgang mit Wissen und Information in elektronischen Umgebungen angemessen sind.

Prof. Dr. Rainer Kuhlen

Wider das unauslöschliche Siegel

Der Vortrag versucht eine Klassifikation der Fakten und Fiktionen zur An-Eignung biometrischer Verfahren und Systeme. Mit besonderem Blick auf deren Überwindung entwickelt der Vortragende ein „anziehendes Gewebe“ von zusammentreffenden Erzählfäden: Die Versuche der Überwindung durch die Verbrecher der 30er Jahren treffen auf die Versuche von Asylbewerbern im modernen Skandinavien. Die filmischen Fiktionen der 50er und 60er Jahre auf das Heute. Die medizinischen Beiträge der 30er Jahre auf die Praxis der modernen Transplantationstechnik. Die dystopischen Fiktionen aus mehr als vier Jahrzehnten auf das eigentlich schon Machbare ... Im Ausblick stellt sich nicht nur die Frage des authentischen Nutzers (oder sagen wir besser Betroffenen), sondern auch die Frage des authentischen Biometriesystems.

Ziel dieses Beitrags ist es, Strategien zur Überwindung biometrischer Verifikationen und Identifikationen darzustellen. Zur Überraschung vieler wird gezeigt, dass das Unterwandern, Hintergehen und Austricksen biometrischer Systeme überhaupt kein neues Phänomen ist.

Bereits 1907 beschreibt R. Austin Freeman in seinem Roman „The Red Thumb Mark“ eine Hightech-Methode zur Herstellung einer Gelatinefolie mit einem falschen Fingerabdruck. Frappierend ist, dass mit der dort beschriebenen Methode noch heute (einige) optische Sensoren überwunden werden können. In den Geschichtsbüchern verschwunden sind die vielfältigen Versuche von Verbrechern der 30er und 40er Jahre, einem Wiederauffinden der Fingerabdrücke in der FBI-Fingerabdruckkartei zu entgehen. Der Autor hat sich auf den mühsamen Weg gemacht, die alten Geschichten zu recherchieren und mit den heutigen Strategien zu vergleichen. Neben dem Rückgriff auf die Geschichte und den aktuellen Stand der Technik wird aber auch auf filmische Thematisierungen der Überwindung aus verschiedenen Genres (u.a. dystopische Gesellschaftsentwürfe, Actionthriller, Agentenfilme, Science Fiction) Bezug genommen – immer mit dem Blick auf das vielleicht bald schon Mögliche.

Dem Autor geht es aber nicht um eine bloße Aneinanderreihung von Beobachtungen. Ziel ist es, eine Systematik der Überwindung vorzulegen.

Zunächst geht es um Mittel und Wege, eigene Spuren zu vermeiden oder zu beseitigen. Hernach stellt sich die Frage der gezielten – zeitlich befristeten oder persistenten – Eliminierung oder Veränderung des Merkmalsträgers zur Verschleierung eigener Spuren. Als Plagiat oder Déjà vu könnte man die Wiederverwendung vorhandener Spuren bezeichnen. Eine Latenzbild-Reaktivierung auf einem Sensor gehört in diese Kategorie. Verwirrung stiften Kontextwechsel, wenn abnehmbare Spuren an einem anderen Ort hinterlassen werden. Die damit verbundenen Verwirrungen beschreibt z. B. der Film „Fingerprints don’t lie“ aus den 50er Jahren. Unter dem Oberbegriff Ent-Eignung könnte man die Varianten zusammenfassen, bei denen der Merkmalsträger gewaltsam von Fremden genutzt wird. Prototypisch wären hier der bewusstlose Wachmann, dessen berechtigender Finger auf einen Sensor gelegt wird oder der Autofahrer, dem von Dieben ein Finger abgetrennt wurde, um die biometrische Wegfahrsperre zu überwinden. Weiter besteht die Möglichkeit, von echten Vorlagen Attrappen herzustellen. Wege der technischen Reproduzierbarkeit kennen wir dank Freeman seit 1907, wie einfach die Reproduktion ist, haben der Chaos Computer Club, aber auch japanische Forscher wie Matsumoto eindrucksvoll gezeigt. Schließlich bleibt der Weg des Transfers von Merkmalsträgern. Prototypisch seien hier Transplantationen von Fingern, Händen und Gesichtern genannt.

Dies sind alles „Angriffe von vorn“. Sehr gut vorstellbar sind auch Manipulationen der Datenbanken, in denen biometrische Rohdaten oder Templates abgespeichert sind (Backend-Angriff) oder Angriffe auf die Kommunikationsstrecken im System bzw. auf Systemkomponenten, z.B. durch Veränderung der Vergleichseinheit oder die Veränderung des Sensors.

Es stellt sich also nicht nur die Frage des authentischen Nutzers. Die letzten Bemerkungen machen klar, dass man auch die Frage stellen muss, unter welchen Umständen ein Nutzer überhaupt wissen kann, dass er es mit einem authentischen Biometriesystem zu tun hat.

Peter Bittner ist Grenzgänger zwischen den Disziplinen, er arbeitet in und zwischen Informatik, Wirtschaftswissenschaften, Philosophie und Soziologie. Als wissenschaftlicher Mitarbeiter beschäftigte er sich mit der Ethik und Profession der Informatik, arbeitete zu gesellschaftlichen, politischen und juristischen Fragen der Informatik, zur informationellen Selbstbestimmung und über Überwachungstechniken (mit dem Schwerpunkt auf Videoüberwachung und Biometrie). Viele seiner Arbeiten bündelte er in einem Entwurf einer Kritischen Theorie der Informatik. Er lehrte an den Universitäten TU Kaiserslautern, TU Darmstadt und HU Berlin sowie an der Berufsakademie Berlin. Daneben betreute er Studierende an der Hochschule München. Als IT-System-Berater konfigurierte er ERP-Systeme und entwickelte Betriebs-, Datenschutz- und Sicherheitskonzepte. Als Berater für Betriebsräte kämpfte er für datenschutzgerechte IKT-Systeme in den Betrieben und den Beschäftigtendatenschutz. Er war zehn Jahre im Bundesvorstand des FIfF und ist derzeit Mitglied des Beirats.

Peter Bittner