Querschnitt Nr. 22 - Hochschule Darmstadt
Transcrição
Querschnitt Nr. 22 - Hochschule Darmstadt
AUSGABE 22 | APRIL 2008 QUERSCHNITT • AUSGABE 22 QUERSCHNITT BEREIT FÜR DEN GROSSEN AUFTRITT? SOFTWARE AG DIE SOFTWARE AG BE S CH Ä F T IGT ¬ Praktikanten/Werksstudierende ¬ Absolventen BETR EU T ¬ Bachelor-Arbeiten ¬ Master-Arbeiten BI ETET FÜR STUDIERENDE ¬ Umfangreiches Hochschulprogramm ¬ Produktschulungen BI ETET FÜR ABSOLVENTEN ¬ Trainee-Programme ¬ Internationale Einsatzmöglichkeiten ¬ Attraktives Einstiegsgehalt FREU T S IC H AUF DE IN E N B ES UCH www.softwarea g . com /J obs www.softwarea g . com /uni ver sit y Software AG ist der weltweit größte unabhängige Anbieter von Business-Infrastruktursoftware. Unsere 4.000 Kunden erzielen messbare Erfolge durch die Modernisierung vorhandener IT-Systeme und die Erstellung innovativer Lösungen für neue Geschäftsanforderungen. Unser Produktportfolio umfasst marktführende Lösungen für Datenmanagement, serviceorientierte Architekturen und die effiziente Automatisierung von Geschäftsprozessen. Wir verbinden leistungsfähige IT-Technologie mit Branchen-Know-how und bewährten Best Practices und helfen damit unseren Kunden, ihre Unternehmensziele schneller zu erreichen. Die Software AG hat ihr Headquartes in Darmstadt und ist an der Frankfurter Wertpapierbörse notiert. SOFTWARE AG. GET THERE FASTER Contact us at www.softwareag.com Contact us at www.softwareag.com Beiträge aus Forschung und Entwicklung Mit 61.000 Mitarbeitern/-innen, Niederlassungen in 41 Ländern und einem Vertriebsnetz, das mehr als 100 Länder abdeckt, bietet AREVA ihren Kunden zuverlässige technologische Lösungen für CO2-freie Energieerzeugung sowie die Energieübertragung und -verteilung. Für uns sind das genau 3,53 Erbsen. Zur AREVA-Gruppe gehört die AREVA NP, ein Unternehmen von AREVA und Siemens mit mehr als 15.500 Mitarbeitern/ -innen. Von unseren Standorten in Frankreich, Deutschland und den USA aus arbeiten wir in allen Teilen der Welt. Technologieführerschaft hat bei uns Tradition Forschung und Entwicklung sind seit jeher Garanten für unseren Unternehmenserfolg. Nur deshalb können wir heute die modernsten und sichersten Reaktordesigns anbieten und schlüsselfertig für unsere Kunden bauen. Dies wird auch in Zukunft so bleiben. Es gilt, Gutes noch besser zu machen und den weltweit anerkannten Sicherheitsstandard unserer Reaktoren weiter zu erhöhen. Von uns gebaute Kernkraftwerke erzeugen in elf Ländern kostengünstig und CO2-frei Strom. Immer mehr Betreiber setzen auf das Know-how unserer Teams und auf unsere hochspezialisierten Tools, um ihre Anlagen noch wettbewerbsfähiger zu machen. Wir nehmen die Dinge sehr genau. Menschen – Ideen – Karrieren Wer sich für uns entscheidet, findet interessante Aufgabenfelder. Bei einem Global Player zu arbeiten verlangt neben Fachwissen und Kreativität auch Offenheit und Verständnis für andere Kulturen. Die von uns entwickelten und angemeldeten Patente belegen Jahr für Jahr unsere herausragende Kompetenz. Mit neuartigen Reaktoren wollen wir der Kernenergie in den nächsten Jahrzehnten neue Einsatzgebiete in der Energiewirtschaft erschließen. Unsere Mitarbeiterinnen und Mitarbeiter aus den unterschiedlichen technischen und wissenschaftlichen Disziplinen arbeiten bereits heute an diesen Herausforderungen von morgen. Auch für Sie eröffnen sich einmalige Karrierechancen. Auch Ihre Zukunft bei uns. Möchten Sie an diesen herausfordernden Aufgaben mitarbeiten und Ihre Fähigkeiten einbringen? An unseren Standorten in Deutschland, z.B. Erlangen, Offenbach, Karlstein, Lingen und Duisburg, geben wir Ihnen jederzeit die Gelegenheit zum Einstieg. Wir suchen mehrere Ingenieure, Techniker und technische Assistenten (m/w), gerne auch mit gleichwertigem ausländischen Abschluss, mit Schwerpunkt in einer der folgenden Fachrichtungen: – – – – Maschinenbau/Verfahrens-/Kerntechnik Automatisierungs-/Regelungs-/Leittechnik Elektrotechnik Informatik – – – – Schenck Process ist einer der Technologie- und Marktführer im Bereich der angewandten Messtechnik. An 25 Standorten weltweit entwickeln 1.800 Mitarbeiter innovative Lösungen für verfahrenstechnische Prozesse der Wäge-, Dosierund Schwingtechnologie. In vielen Industriebereichen wie Zement, Kunststoff, Pharma, Kraftwerke und Transport Automation. Und das seit über 125 Jahren. Bauwesen Naturwissenschaften (Physik, Chemie) Werkstoff-/Materialwissenschaften Wirtschaftsingenieurwesen/Betriebswirtschaft – Jobs als Werkstudent/in – Praktikumsplätze – Studien-, Diplom- und Doktorarbeiten Wir freuen uns darauf, Sie kennen zu lernen. Bitte bewerben Sie sich vorzugsweise online unter www.areva-np.com/karriere oder nehmen Sie Kontakt mit uns auf: AREVA NP GmbH, Abt. H-G, Frau Bernhild Pflanzer, Kaiserleistr. 29, 63067 Offenbach Für mehr Informationen: www.areva.com 080319_hda_querschnitt_cover_rz_2 2 Schenck Process GmbH Pallaswiesenstr. 100 64293 Darmstadt, Germany T +49 61 51-15 31 22 39 [email protected] www.schenckprocess.com Darüber hinaus bieten wir Studierenden dieser Fachrichtungen Sichern Sie sich Ihre Chance als Ingenieur/in mit den Schwerpunkten Mechatronik, Maschinenbau und Verfahrenstechnik. Wir suchen Sie zur Konstruktion, technischen Auftragsabwicklung und Projektleitung, für Service und Inbetriebnahme, den technischen Vertrieb und für die Entwicklung zukunftweisender Produkte. www.schenckprocess.com 19.03.2008 14:39:26 Uhr AUSGABE 22 | APRIL 2008 QUERSCHNITT Beiträge aus Forschung und Entwicklung 08_hda_querschnitt_gesamt.indb 1 18.03.2008 16:06:30 Uhr QUERSCHNITT 22 WIR STELLEN UNS DEM KLIMAWANDEL. DIE HOCHSCHULE DARMSTADT BEZIEHT POSITION ZU VERÄNDERUNGEN IN UMWELT UND HOCHSCHULLANDSCHAFT. 2 08_hda_querschnitt_gesamt.indb 2 18.03.2008 16:06:34 Uhr VORWORT Forschung und Entwicklung in den angewandten Wissenschaften und Künsten besitzen an der Hochschule Darmstadt hohe Bedeutung und Reputation. Die Basis hierfür liegt in der Kompetenz und dem Engagement der Professorinnen und Professoren, Mitarbeiterinnen und Mitarbeiter und der Studierenden. Die Zusammenarbeit mit Industriepartnern trägt neue Aufgabenstellungen und Ideen an die Hochschule und fördert so die Aktualität der Aus- und Weiterbildungsinhalte. Das Zentrum für Forschung und Entwicklung (zfe), ein Zusammenschluss von Forscherinnen und Forschern der Hochschule Darmstadt, leistet hierzu einen wichtigen Beitrag. Das zfe fördert zahlreiche FuE-Projekte, informiert über Förderprogramme, unterstützt bei der Beantragung von Fördermitteln und bei der Abwicklung der FuE-Projekte und richtet jährlich den Tag der Forschung aus. Dieser stand 2007 aus aktuellem Anlass unter dem Leitthema „Klimawandel“ (siehe auch Coverfoto). Die Hochschule Darmstadt forscht aktiv auf diesem Gebiet, u.a. dokumentiert im Beitrag „μ -Grids – Der Weg zu intelligenten Stromnetzen und umweltfreundlicher Stromversorgung“. Aber der Klimawandel findet nicht nur global und meteorologisch statt. Auch die Hochschullandschaft unterliegt derzeit einem starken Wandel: • Die Hochschulen erhalten zunehmend Autonomie. • Der „Bologna-Zug“ ist in voller Fahrt: Bachelor- und Masterstudiengänge werden flächendeckend eingeführt. • Forschung und Entwicklung werden mehr und mehr über Förderprogramme und Industriekooperationen finanziert werden. Die neuen strategischen Partnerschaften mit der Software AG und der HEAG Südhessischen Energie AG (HSE) weisen neue Wege zu Public-Private-Partnership-Kooperationen. Die Beteiligung an den großen Forschungsförderprogrammen der EU, der Bundesrepublik Deutschland und des Landes Hessen zeigen den Willen und das Zutrauen, in „der ersten Liga“ mitwirken zu können. Der jährlich erscheinende Querschnitt präsentiert die ganze Bandbreite der Forschungsaktivitäten an der Hochschule Darmstadt, (alphabetisch) beginnend mit „Arbeitsschutz beim betrieblichen Einsatz von Nano-Materialien“ über „Kommunales Energiemanagement“ bis hin zu „Wasserversorgung der seleukidischen Festung auf dem Karasisi /Türkei“. Das vorliegende Heft zeigt anschaulich die Substanz und Qualität der h_da-Forschungsprojekte. Es soll sowohl Forscher und Forschungsinteressierte als auch die breite Öffentlichkeit ansprechen. Lassen Sie sich durch die Beiträge über die FuE-Aktivitäten der Hochschule Darmstadt informieren. Die Präsidentin der Hochschule Darmstadt Prof. Dr. Maria Overbeck-Larisch Der Leiter des Zentrums für Forschung und Entwicklung Prof. Dr.-Ing. Lothar Petry 3 08_hda_querschnitt_gesamt.indb 3 18.03.2008 16:06:47 Uhr QUERSCHNITT 22 INHALT Seiten 2 – 3 VORWORT PRÄSIDENTIN Seiten 16 – 115 PROJEKTE Seiten 16 – 22 PRODUKTINNOVATIONSPOTENTIALE IN DER FABRIKÄHNLICHEN VORFERTIGUNG IM BAUWESEN Prof. Dr.-Ing. Lothar Ruf, Prof. Dr.-Ing. Andreas Lang, Prof. Dr.-Ing. Dipl.-Wirt. Ing. Alexander Bubenik und Dipl.-Ing. (FH) Andreas Hrastnik • Fachbereich Bauingenieurwesen Seiten 24 – 31 BIOGAS AUS BIOABFALL – UNTERSUCHUNGEN ZUR BIOABFALL-VERGÄRUNG AN DER HOCHSCHULE DARMSTADT UND IN EINEM KOMPOST WERK Prof. Dr. Hans-Jürgen Koepp-Bank, Dipl.-Ing. (FH) Anja Heselich, Dipl.-Ing. (FH) Heiko Mannsperger und Dipl.-Ing. (FH) Astrid Püstel • Fachbereich Chemie und Biotechnologie Seiten 32 – 39 μ-GRIDS – DER WEG ZU INTELLIGENTEN STROMNETZEN UND UMWELTFREUNDLICHER STROMVERSORGUNG Thorsten Fiedler und Dieter Metz • Fachbereich Elektrotechnik und Informationstechnik Seiten 40 – 51 GIMME THE GIMMICKS – WERBUNG IN UND FÜR KINDER- UND JUGENDZEITSCHRIFTEN Dipl.-Soz. Bettina von Römer und Prof. Dr. Bernd Steffensen • Fachbereich Gesellschaftswissenschaften und Soziale Arbeit Seiten 52 – 61 EIN ELEKTRONISCHES LERN-MANAGEMENTSYSTEM MIT INTEGRIERTER BILDTELEFONIE- UND VIDEOKONFERENZFUNKTION Prof. Dr. Michael Massoth, Daniel Brügger, Mahtab Dalir, Nadine Haertel, Jürgen Müller, Thomas Treusch und Christine Weber • Fachbereich Informatik 4 08_hda_querschnitt_gesamt.indb 4 18.03.2008 16:06:48 Uhr 7IRßSINDßBEREITßF~RßKLUGEß+yPFE 5NSEREß-ITARBEITERINNENßUNDß-ITARBEITERßSTELLENß SICHßTiGLICHßDENß(ERAUSFORDERUNGENßDESßDYNAMI SCHENß%NERGIEMARKTSß$AF~RßBRAUCHENßWIRßAUCHß INß:UKUNFTßKLUGEß+yPFEßDIEßMITß%NGAGEMENTßUNDß )DEENßDIEß%NERGIEßUNDß4RINKWASSERVERSORGUNGß VONßMORGENßSICHERSTELLEN 7ENNß3IEß)NTERESSEßANßEINERß-ITARBEITßBEIßUNSß HABENßSEIßESßALSß!BSOLVENTINß0RAKTIKANTINßODERß $IPLOMANDINßWENDENß3IEßSICHßBITTEßAN (%!'ß3~DHESSISCHEß%NERGIEß!'ß(3%ß0ERSONAL ,ANDWEHRSTRAEßßß$ARMSTADT 4ELßßß%-AILßPERSONAL HSEAG 7EITEREß)NFORMATIONENß~BERßUNSßSOWIEßUNSE REßAKTUELLENß3TELLENANGEBOTEß½NDENß3IEßUNTERß WWWHSEAG WWWHSEAG Die Energieversorgung der Zukunft mitgestalten Die Versorgung mit Energie und Trinkwasser ist eine der Grundvoraussetzungen für das Leben in unserer Gesellschaft. Knapper werdende Ressourcen und immer höhere Ansprüche an den Klimaschutz machen die sichere und umweltschonende Versorgung der Menschen mit Energie und Trinkwasser zu einer der größten Herausforderungen des 21. Jahrhunderts. Kluge Köpfe sind gefragt, die mit ungewöhnlichen Ideen neue Wege gehen wollen. Die HEAG Südhessische Energie AG (HSE) ist mit ihren rund 2.000 Mitarbeiterinnen und Mitarbeitern verantwortlich für die Lebensadern der Region. Die Versorgungsnetze der HSE schaffen die Basis für den Wirtschaftsstandort Südhessen. Mit seinen Tochter- und Beteiligungsgesellschaften ist der HSE-Konzern von der Erzeugung und Beschaffung über die Verteilung bis hin zum Vertrieb von Energie und der Versorgung mit Trinkwasser aktiv. Im Rhein-Main-Neckar-Raum beliefert die Vertriebstochter ENTEGA mehr als 650.000 Kunden zuverlässig mit Strom, 08_hda_querschnitt_gesamt.indb 5 Erdgas, Trinkwasser und Wärme. ENTEGA hat es geschafft, Ökostrom aus der Nische zu holen. Über 300.000 Kunden haben sich für das nach den hohen Standards des ok Power Labels zertifizierte Ökostromprodukt entschieden. Damit gehört die HSE-Tochter zu den größten Ökostromanbietern Deutschlands. Daneben betreibt die HSE großtechnische Anlagen wie das Darmstädter Müllheizkraftwerk, mehrere Heizkraftwerke und zwei Klärwerke in Darmstadt. Dabei erzielt der Konzern einen Jahresumsatz von über einer Milliarde Euro. Für mehr Unabhängigkeit im Strombezug möchte die HSE den Anteil des eigen erzeugten Stromes auf bis zu 70 Prozent ausbauen. Dies geschieht durch Beteiligungen an konventionellen Kraftwerken und den massiven Ausbau regenerativer Energien. Alleine dafür wird die HSE in den nächsten Jahren rund 400 Millionen Euro in nationale und internationale Projekte aus den Bereichen Sonne, Wind und Geothermie investieren. Das Unternehmen erschließt aber auch die Potentiale in der Region. Hierzu investiert die HSE unter anderem in Biogasanlagen. In Darmstadt-Wixhausen geht 2008 die erste Biogasanlage Hessens in Betrieb, die das erzeugte Gas direkt ins Erdgasnetz einspeist. Weiterhin beteiligt sich die HSE an Biomasse-Kraftwerken, mit denen Rest- und Schwachholz für eine umweltverträgliche Energieerzeugung genutzt werden kann. Um seine ehrgeizigen Ziele zu verwirklichen, braucht die HSE qualifizierte und motivierte Mitarbeiterinnen und Mitarbeiter. Von zentraler Bedeutung sind dabei gute Nachwuchskräfte. Bereits während des Studiums erhalten angehende Akademiker die Chance, die eigene Energie in Erfolg umzusetzen - sei es im Rahmen eines Praktikums oder einer Diplomarbeit. Nach einem zügig und erfolgreich abgeschlossenen Studium bietet das Unternehmen interessante Perspektiven in einem dynamischen und zukunftsfähigen Markt. 18.03.2008 16:06:48 Uhr QUERSCHNITT 22 INHALT Seiten 62 – 70 EINFLUSS DER ANLASSINTENSITÄT AUF DIE MECHANISCHEN EIGENSCHAFTEN EINES BORLEGIERTEN MARTENSITISCHEN KAROSSERIESTAHLS Prof. Dr.-Ing. Mario Säglitz, Prof. Dr. George Krauss und Cand.-Ing. Matthias Niegel • Fachbereich Maschinenbau und Kunststofftechnik Seiten 72 – 81 ÜBER DIE STOKES-EINSTEIN-BEZIEHUNG FÜR FLUIDSYSTEME MIT DURCHDRINGBAREN TEILCHEN Helge-Otmar May und Peter Mausbach (Fachhochschule Köln) • Fachbereich Maschinenbau und Kunststofftechnik Seiten 82 – 89 WEITERGEHENDE ABWASSERBEHANDLUNG – DAMIT ES IM KANAL NOCH SAUBERER WIRD! Prof. Dr.-Ing. habil. J. Unger, Dipl.-Chem. S. Michling (FB B) • Fachbereich Maschinenbau und Kunststofftechnik Seiten 90 – 97 HÖRBÜCHER UND PODCASTING FÜR BILDUNGSZWECKE ERSCHEINUNGSFORMEN – GESTALTUNGSWEISEN – DISTRIBUTION Sabine Breitsameter • Fachbereich Media Seiten 98 – 107 ENERGIE-CONTROLLING IN KLEINEN UND MITTLEREN KOMMUNEN? Hans-Jürgen Zubrod • Fachbereich Wirtschaft Seiten 108 – 115 KOMMUNALES ENERGIEMANAGEMENT UND CONTRACTING – DARSTELLUNG DER ERGEBNISSE VON 2 BEFRAGUNGEN IN DEN JAHREN 2006 UND 2007 Martin Meyer-Renschhausen, Andreas Achilles und Klara Schroeder • Fachbereich Wirtschaft 6 08_hda_querschnitt_gesamt.indb 6 18.03.2008 16:06:48 Uhr STAZ Prakt-Diplomanden186mm.qxd:Anzeigenkonzept.qxd 24.10.2007 11:33 Uhr Seite 1 Entwickeln Sie mit: Die Bertrandt AG ist Partner der Automobil- und Luftfahrtindustrie. Von der Idee bis zur Serienreife entwickeln über 4.200 Mitarbeiter bei Bertrandt Lösungen für Karosserie, Innenraum, Fahrwerk, Elektrik und Elektronik, Motor und Aggregate. Für unseren Standort in Rüsselsheim suchen wir engagierte Praktikanten, Diplomanden, Jobber sowie Absolventen m/w Wir bieten Einsatzmöglichkeiten in den Bereichen: Konstruktion und Entwicklung Karosserie, Aufbau, Interieur/Cockpit/Sitze, Exterieur, Elektrik, Fahrwerk/Klima/Kühlung und Powertrain Funktionsentwicklung und technische Berechnung Elektronikentwicklung Entwicklungsbegleitende Dienstleistungen Grundlage für den Einsatz in einem dieser interessanten Bereiche ist Ihr Studium des Maschinenbaus, der Fahrzeugtechnik, der Elektrotechnik, der Mechatronik, der Informatik, des Wirtschaftsingenieurwesens oder einer vergleichbaren Studienrichtung. Setzen Sie bei uns um, was Sie bisher in Ihrem Studium gelernt haben, fertigen Sie Ihre Abschlussarbeit an oder ergreifen die Chance zu einem erfolgreichen Berufsstart. Bei uns nehmen Sie konkrete Projekte selbstständig in Angriff, profitieren von der Erfahrung gestandener Profis und nutzen am eigenen Arbeitsplatz modernstes Equipment. Wir freuen uns auf Ihre Bewerbung. Mehr über Bertrandt und unsere offenen Positionen finden Sie unter www.bertrandt.com Haben Sie noch Fragen? Dann sprechen Sie mit Cosima Karl +49 6134 2566 - 160, [email protected] Bertrandt Ingenieurbüro GmbH, Im Weiherfeld 1, 65462 Ginsheim-Gustavsburg 08_hda_querschnitt_gesamt.indb 7 18.03.2008 16:06:49 Uhr QUERSCHNITT 22 INHALT Seiten 118 – 165 PROJEKTBERICHTE Seiten 118 – 121 BOLOGNA FÜR DIE REGION EIN PROJEKT AM ÜBERGANG SCHULE – HOCHSCHULE Gregor Bechtold, Pia Sue Helferich Seiten 122 – 124 DIE WASSERVERSORGUNG DER SELEUKIDISCHEN FESTUNG AUF DEM KARASIS / TÜRKEI Prof. Dr.-Ing Mathias Döring • Fachbereich Bauingenieurwesen Seiten 125 – 127 ENTWICKLUNG EINES NEUEN FISCHAUFSTIEGS FÜR WASSERKRAFTWERKE Prof. Dr.-Ing Mathias Döring • Fachbereich Bauingenieurwesen Seiten 128 – 129 NACHHALTIGE WASSERWIRTSCHAFT IN ARIDEN UND SEMIARIDEN GEBIETEN DURCH NUTZUNG TRADITIONELLER VERFAHREN UND BAUWEISEN Prof. Dr.-Ing Mathias Döring • Fachbereich Bauingenieurwesen Seiten 130 – 131 TECHNIK, TEAMS, TALENTE – FÖRDERUNG DER NATURWISSENSCHAFTLICH-TECHNISCHEN BILDUNG Prof. Dr. Volker Wiskamp • Fachbereich Chemie und Biotechnologie Seiten 132 – 133 UNTERSUCHUNGEN UND ISOLIERUNG VON SEKUNDÄREN PFLANZENSTOFFEN AUS BYPRODUCTS DER LEBENSMITTELINDUSTRIE – ZWEI DIPLOMARBEITEN DES FACHBEREICHS CUB IN WIEN Prof. Dr. Wolfgang Fichtner, Eva Nowak und Helen Rickhoff A.o.Univ.Prof. Dr. techn. Senad Novalin und Dipl.-Umw. Dipl.-Ing.(FH) Ulf Schubert (Universität für Bodenkultur Wien) • Fachbereich Chemie und Biotechnologie 8 08_hda_querschnitt_gesamt.indb 8 18.03.2008 16:06:49 Uhr Es gibt Geräusche, die am Image kratzen. The Group THE ART OF ROTATION RA4041 BECKER SPÄTH Selbst winzige Ursachen entfalten oft große Wirkung. Eine kleine Unwucht entpuppt sich auf diese Weise schnell als Geräuschbelästigung im Alltagsbetrieb und zum Makel eines ansonsten tadellosen Produkts. Ob groß oder klein – bei einer Vielzahl von Komponenten lassen sich durch Auswuchten störende Vibrationen von Anfang an vermeiden. Dank der Auswuchtlösungen von Schenck RoTec. www.schenck-rotec.de 08_hda_querschnitt_gesamt.indb 13 18.03.2008 16:06:50 Uhr QUERSCHNITT 22 INHALT Seiten 134 – 135 ARBEITSSCHUTZ BEIM BETRIEBLICHEN EINSATZ VON NANO-MATERIALIEN Prof. Dr. Bernd Steffensen, Dipl. Wirt.-Ing. Christian Häcker • Fachbereich Gesellschaftswissenschaften und Soziale Arbeit Seiten 136 – 139 SÜDAMERIKA – NEUE MÄRKTE FÜR DEN IT-MITTELSTAND Prof. Dr. Thomas Wilmer, Prof. Dr. Edith Rost-Schaude, Dr. Ruth Tobias, Florian Ludwig • Fachbereich Gesellschaftswissenschaften und Soziale Arbeit Seiten 140 – 143 DARMSTÄDTER INFORMATIONSRECHTSTAGE 2005–2008 Diana Chiampi Ohly, Rainer Erd, Thomas Wilmer • Fachbereich Gesellschaftswissenschaften und Soziale Arbeit Seiten 144 –147 SMART LABELS IM ELEKTRONIKSCHROTT – BEITRAG ZU HERSTELLERVERANTWORTUNG UND PRODUKTINNOVATION Georg Cichorowski und Martin Führ • Fachbereich Gesellschaftswissenschaften und Soziale Arbeit Seiten 148 – 151 UNTERSUCHUNG VON VOLKSWIRTSCHAFTLICHEN FOLGEWIRKUNGEN NACH DURCHFÜHRUNG EINER BRACHFLÄCHENREVITALISIERUNG IM STADTBEREICH Dr.-Ing. Georg Cichorowski, Prof. Dr. Martin Führ • Fachbereich Gesellschaftswissenschaften und Soziale Arbeit Seiten 152 – 153 ATLANTIS UNIVERSITY: GEMEINSAM LEHRINHALTE ENTWICKELN Oliver Schneider, Udo Bleimann, Ingo Stengel und Felix Wagner • Fachbereich Informatik Seiten 154 – 156 ENTWICKLUNG MODERNSTER ABGASNACHBEHANDLUNGSSYSTEME AN EINEM AUFGELADENEN 1,6-LITER-OTTOMOTOR Prof. Dr.-Ing. Dietmar Ueberschär, Dipl.-Ing. Dieter Schulmeyer, Dipl.-Ing. Mehmet Poyraz • Fachbereich Maschinenbau und Kunststofftechnik 10 08_hda_querschnitt_gesamt.indb 10 18.03.2008 16:06:49 Uhr Das StoCretec Prinzip: Wenn aus Substanz Sicherheit wird StoCretec: Betoninstandsetzung und Bodenbeschichtung Wir konzentrieren uns auf Beton und Boden. Für die Wertund Funktionserhaltung bieten wir komplette Systemlösungen an. Dazu gehört die umfassende Beratung in allen Phasen der Instandsetzung, des Schutzes und der Gestaltung von Betonbauwerken. Langjährige Erfahrung macht uns zu einem kompetenten Partner. StoCretec GmbH Gutenbergstraße 6 65830 Kriftel Telefon06192 401-0 Telefax06192 401-325 www.stocretec.de [email protected] Anzeige Das StoCretec Prinzip 181 1 03.01.2007 12:43:54 Siemens Power Transmission and Distribution (PTD) ist eines der führenden Unternehmen auf dem Weltmarkt für Energieübertragung und -verteilung. Als Produktlieferant, Systemintegrator, Komplettlösungs- und Serviceanbieter ermöglicht Siemens PTD Stromversorgern und der Industrie den wirtschaftlichen und zuverlässigen Transport elektrischer Energie vom Kraftwerk bis zum Verbraucher. Für den Standort Frankfurt/Main mit ca. 950 Mitarbeitern suchen wir Menschen mit ehrgeizigen Zukunftsplänen, die Lust haben, mit uns auf dem Weltmarkt etwas zu bewegen. • Werkstudenten (m/w) • Praktikanten (m/w) • Diplomanden (m/w) • Absolventen (m/w) Wir zeigen Ihnen Ihre Chancen im Kompetenzzentrum der Siemens AG für die Entwicklung und Produktion gasisolierter Mittelspannungs-Schaltanlagen zur Verteilung elektrischer Energie am Weltmarkt. Unsere Teams in den Bereichen Produktion, technisches Versuchsfeld und Konstruktion von MittelspannungsSchaltanlagen warten auf die engagierte Unterstützung von Werkstudenten, Praktikanten, Diplomanden und Absolventen. Bringen Sie den Drive mit, bei uns richtig durchzustarten? Haben Sie darüber hinaus Kenntnisse der Elektrotechnik, des Maschinenbaus, der Feinwerktechnik o. ä. ? Dann bewerben Sie sich online über unsere Jobbörse unter www.siemens.de/career (Arbeitsgebiet: Power, Bereich: Power Transmission and Distribution). Für Fragen steht Ihnen Herr Niehuis unter Tel. 069 / 4008-2276 gern zur Verfügung. Power Transmission and Distribution www.siemens.de/ptd 08_hda_querschnitt_gesamt.indb 11 18.03.2008 16:06:49 Uhr QUERSCHNITT 22 INHALT Seiten 158 – 161 WAS ZAHLEN SIE WIRKLICH? – DIE BEWERTUNG VON KREDIT-SONDERANGEBOTEN ANWENDUNGSORIENTIERTE LEHRE AM BEISPIEL DER FINANZMATHEMATIK Andreas Pfeifer • Fachbereich Mathematik und Naturwissenschaften Seiten 162 – 165 MODI – ENTWICKLUNG VON METHODEN UND ANWENDUNGSKOMPONENTEN ZUR DYNAMISCHEN MODELLINTEGRATION IM ELEKTRONISCHEN GESCHÄFTSVERKEHR Prof. Dr. Michael Rebstock, Janina Fengel (M.Sc.), Heiko Paulheim (B.Sc.) • Fachbereich Wirtschaft Seiten 166 – 187 ABSCHLUSSARBEITEN Seiten 188 – 189 DANKSAGUNG Seite 190 IMPRESSUM 12 08_hda_querschnitt_gesamt.indb 12 18.03.2008 16:06:49 Uhr Studium. Beruf. Karriere. Und meine Gesundheit versichere ich bei der IKK-Direkt. Vorteil Beitragssatz: Die IKK-Direkt ist jung, dynamisch, zeitgemäß – und die günstigste bundesweit wählbare Krankenkasse. Vorteil Leistung: Die IKK-Direkt garantiert 100% Leistung und 100% Sicherheit. Plus interessante und attraktive Zusatzangebote. Vorteil Service: Als Online-Direktkasse ist die IKK-Direkt täglich 24 Stunden und ganzjährig überall für Sie erreichbar. Alle Infos, Mitgliedschaftsantrag und Beitragsrechner auf www.ikk-direkt.de Machen Sie sich fit für Ihre Zukunft! 08_hda_querschnitt_gesamt.indb 9 Anschrift Hotline* IKK-Direkt 01802 455 347 oder Kaistraße 101 01802 IKK Direkt 24114 Kiel *6 Ct./Anruf Festnetz Dt. Telekom 18.03.2008 16:06:49 Uhr h_da HOCHSCHULE DARMSTADT UNIVERSITY OF APPLIED SCIENCES WEITERBILDUNG Weiterbildungsanzeige_querschnit1 1 08_hda_querschnitt_gesamt.indb 14 26.02.2008 14:40:19 18.03.2008 16:06:50 Uhr Oval-Lounge im Hotel Grand Elysee, Hamburg Entwurf: Architekturbüro Wilfried Köhnemann, Hamburg Gestaltungsfreiheit in ihrer schönsten Form. Hochwertiger Trockenbau macht aus Visionen Räume – Knauf. Noch Fragen? www.knauf.de 08_hda_querschnitt_gesamt.indb 15 4175_AZ_Diam_Architekt_A4.indd 1 Prozessfarbe CyanProzessfarbe CyanProzessfarbe MagentaProzessfarbe MagentaProzessfarbe GelbProzessfarbe GelbProzessfarbe Schwarz 18.03.2008 16:07:03 Uhr 13.12.2007 9:16:11 Uhr QUERSCHNITT 22 PRODUKTINNOVATIONSPOTENTIALE IN DER FABRIKÄHNLICHEN VORFERTIGUNG IM BAUWESEN Autoren • Prof. Dr.-Ing. Lothar Ruf, Prof. Dr.-Ing. Andreas Lang, Prof. Dr.-Ing. Dipl.-Wirt. Ing. Alexander Bubenik und Dipl.-Ing. (FH) Andreas Hrastnik 1 • Einleitung Die hier beschriebene Forschungsarbeit ist die konsequente Fortführung der Kooperation des Studienschwerpunkts Bauwirtschaft am Fachbereich Bauingenieurwesen der Hochschule Darmstadt und der BASF Aktiengesellschaft, Ludwigshafen. 16 08_hda_querschnitt_gesamt.indb 16 18.03.2008 16:07:03 Uhr Produktinnovationspotentiale in der fabrikähnlichen Vorfertigung im Bauwesen FACHBEREICH BAUINGENIEURWESEN 17 08_hda_querschnitt_gesamt.indb 17 18.03.2008 16:07:12 Uhr QUERSCHNITT 22 Bauteilgruppe Aufgabenbereich Bauteiluntergruppe Fortlaufende Nummerierung Art der Kennzeichnung ## ## $ (#) ## Beispiel 02 Raumbildender Ausbau 03 Vorfertigungspotential A1 Boden- Unterbodenkonstruktion 22 Zementheizestrich Abbildung 2 • Codierungssystem Abbildung 1 • Präsentation Forschungsergebnisse Step 1 durch u. a. Professor Dr.-Ing. Lothar Ruf 2 • Vorgeschichte Bereits 2005 /06 wurde unter dem Arbeitstitel „Identifizierung und Untersuchung von Rationalisierungspotentialen in Bauprozessen unter besonderer Berücksichtigung des Einsatzes von Bauprodukten oder deren Systemkomponenten“ zusammen mit der BASF geforscht. Das damalige Forschungsprojekt beschäftigte sich mit Rationalisierungspotentialen im Überschneidungsfeld der Baubetriebslehre und der Materialwissenschaft. Unter der Anleitung von Professoren und eines wissenschaftlichen Mitarbeiters betätigten sich insgesamt sechs Studenten im Rahmen ihrer Diplomarbeiten mit der Identifizierung von verbesserungsfähigen Bauprozessen in den Bereichen Neubau und Renovierung hinsichtlich Zeit- und Kostenoptimierungsmöglichkeiten. Für 6 ausgewählte Systeme • Tragwerk • Dach / WDVS • Fassade /Fenster • Raumbildender Ausbau 1 (Neubau) • Nasszelle und • Raumbildender Ausbau 2 (Renovierung) wurden Bauprozesse mit hohem Lohnkostenanteil sowie mit kritischem Ablaufverhalten identifiziert, analysiert, beschrieben und baubetrieblich bewertet. Zwei weitere Diplomarbeiten untersuchten Rationalisierungspotentiale im Zusammenhang mit äußeren Randbedingungen: • Einfluss klimatischer Faktoren • Sauberkeit als Prozessbedingung Aus mehreren hundert analysierten und in Form von Datenblättern detailliert festgehaltenen Teilprozessen konnten letztlich 35 signifikant optimierungsfähige Bauprozesse identifiziert werden. In einem Abschlussworkshop im Februar 2006 wurden die erarbeiteten Forschungsergebnisse unter ca. 20 Teilnehmern der BASF und der Hochschule Darmstadt diskutiert. Im Ergebnis konnten gemeinsam 42 Vorschläge und Ideen erarbeitet werden, welche hinsichtlich ihrer technischen Machbarkeit und ihres ökonomischen Potentials bewertet wurden. Die Ergebnisse des ersten Forschungsprojektes wurden auf einem Innovationsworkshop der BASF in Bad Dürkheim zur internen Bewertung und fokussierten Bearbeitung vorgestellt. 3 • Aktuelles Forschungsprojekt Das aktuelle Forschungsprojekt trägt den Titel „Identifizierung und Untersuchung von Produktinnovationspotentialen in der fabrikähnlichen Vorfertigung im Bauwesen.“ Ähnlich wie beim Forschungsprojekt 2005 /06 sollten Bauprozesse hinsichtlich ihres Optimierungspotentials untersucht werden. Der Schwerpunkt lag diesmal jedoch nicht im Bereich der Bauausführung in situ, sondern in der Vorfabrikation. Das Forschungsprojekt wurde in 2 aufeinander aufbauende Abschnitte aufgeteilt, welche von unterschiedlichen Forschungsteams, bestehend aus Professoren, einem wissenschaftlichen Mitarbeiter und Diplomanden, bearbeitet wurden. Unterstützt wurden die Teams durch Fachleute des Forschungspartners. Ziel des ersten Forschungsabschnittes war die Identifizierung von ausgewählten Bereichen des Bauwesens in denen bereits Produktkomponenten mit einem hohen Vorfertigungsgrad oder mit hohem Vorfertigungspotential existieren. 18 08_hda_querschnitt_gesamt.indb 18 18.03.2008 16:07:18 Uhr Produktinnovationspotentiale in der fabrikähnlichen Vorfertigung im Bauwesen FACHBEREICH BAUINGENIEURWESEN Boden Unterbodenkonstruktion Raumbildender Ausbau Verbund-Zementestrich Produktionsprozess „Verbund-Zementestrich“ 02.02.A1.01 1. Anwendungsbereiche Boden Unterbodenkonstruktion Zementheizestrich Vorfertigungspotential „Zementheizestrich“ 02.03.A1.22 1. Vorfertigungspotential - Als Ausgleichsestrich, wenn der tragende Untergrund starke Unebenheiten aufweist; Beim Produktionsprozess „Zementheizestrich“ besteht hohes Vorfertigungspotential. - Als Gefälleestrich, zur Ableitung von Oberflächenwasser; Denkbar wäre, die einzelnen Funktionen des Heizestrichs, also Dämmen (Dämmschicht), Heizen - … (Rohrleitungssystem) und Lastverteilen (Estrich) werkseitig in einem Produkt zu vereinen. Diese Möglichkeit setzt jedoch voraus, dass der Teilprozess „Aushärten des Estrichs“ ebenfalls ausgelagert 2. Prozessbeschreibung wird. Bodenaufbau siehe Anlage 02.02.A1.01-A [1] - Reinigen des Untergrundes – eine mechanische Vorbehandlung ist evtl. nötig (schleifen, sandstrahlen); Das Vorfertigungspotential läge also darin, Zementestrich-Elemente mit integriertem Heizsystem vorzufertigen und die jeweilig benötigte Dämmung ebenfalls werkseitig zu applizieren. - Auftragen einer Haftbrücke aus Zementschlämme (aus Trockenmörtel, vor Ort gemischt, Untergrund muss sehr lange vorgenässt werden), aus Kunstharzdispersionen (nicht in gleichem Maße H = hoch M Zementheizestrichelemente hätten bei zu großen Abmessungen ein hohes Eigengewicht und würden somit einen gewissen logistischen Aufwand verursachen; - … 3. Werkstoffe Abbildung 3 • Ausschnitt Datenblatt (Prozess) M = mittel N - Verbundestrich auf den noch feuchten Betonuntergrund aufgebracht wird („frisch-auf-frisch“); - … N = niedrig H Bei der Umsetzung dieser Ansätze könnten u.a. folgende Schwierigkeiten auftreten: kraftschlüssig, wie mineralische Haftbrücken) oder aus Reaktionsharzen (z.B. Epoxidharze, diese haften sehr gut, sind jedoch relativ teuer). Auf eine Haftbrücke kann verzichtet werden, wenn der Technisch Raumbildender Ausbau N M H Wirtschaftlich Abbildung 4 • Ausschnitt Datenblatt Hierzu wurde das Untersuchungsgebiet in Bauteilgruppen, wie folgt, aufgeteilt: • Rohbau und Betonbauteile (Betonfertigteile, Betonhalbfertigteile) • Raumbildender Ausbau (Boden, Wand, Decke) • Dach und Fassade (Dachabdichtung, Fassade) • Technische Gebäudeausrüstung (Haustechnik im Sanierungsbereich) • Fertighaus (Schlüsselfertig) Die Bauteilgruppen bildeten eigenständige Untersuchungsgebiete, welche von fünf Studenten im Rahmen ihrer Diplombzw. Masterarbeiten bearbeitet wurden. Zur Förderung und Koordination der Arbeitsprozesse sowie der Struktur der Ausarbeitungen fanden regelmäßige, meist wöchentliche Projektbesprechungen statt. So wurden in diesen bspw. codierte und standardisierte Produktionsprozess-Datenblätter sowie Vorfertigungspotential-Datenblätter entwickelt, die eine systematische Erfassung von Prozess- und Vorfertigungsdaten ermöglichten. Die Aufgabenteile, welche jeweils bearbeitet werden sollten, waren insbesondere die umfassende Analyse des Marktes, die Beschreibung von etablierten Produktionsprozessen (Stand der Technik) sowie deren Vorfertigungspotential. Abschließend wurde jeweils der Status quo der Vorfertigung betrachtet. Im Rahmen der Marktanalyse wurde zunächst eine Marktsegmentierung vorgenommen. Weiter wurde das Marktvolumen bestimmt, es wurden die Hauptmarktteilnehmer identifiziert und regionale Unterschiede benannt. Die Beschreibung der etablierten Produktionsprozesse erfolgte mit Hilfe eines speziell dafür entwickelten Datenblattes. Die Auswahl der Produktionsprozesse erfolgte nach der Bedeutung des Prozesses durch Orientierung am Stand der Technik. Hierbei sollte keine Unterscheidung nach konventionellen oder vorgefertigten Produkten vorgenommen werden. Die Prozessdatenblätter zum Thema „Etablierte Produktionsprozesse“ hatten folgenden Inhalt: • Anwendungsbereiche • Prozessbeschreibung • Werkstoffe • Baubehelfe • Stufe der Vorfertigung • Logistik (Ver- und Entsorgung) Abbildung 5 • Vorfertigungspotential-EvaluierungsMatrix • Abhängigkeiten und Schnittstellen • Planungs- und Informationsprozess • Erreichen von festgelegten Qualitäten • Normen und Richtlinien Die Beschreibung und Bewertung des Vorfertigungspotentials der im vorherigen Schritt identifizierten Produktionsprozesse erfolgte ebenfalls mit Hilfe eines speziell dafür entwickelten Datenblattes. Dabei wurden die zuvor identifizierten Produktionsprozesse hinsichtlich der folgenden Themengebiete auf ihre Vorfertigung untersucht: • Vorfertigungspotential allgemein • Auswirkungen auf die Montage • Auswirkungen auf die Logistik • Auswirkungen auf Baubehelfe • Auswirkungen auf Planungs- und Informationsprozesse Den Abschluss des Datenblattes bildete eine baubetriebliche Bewertung in Form eines Resümees sowie die graphische Darstellung in Form einer zweidimensionalen Vorfertigungspotential-Evaluierungs-Matrix mit den Potentialklassen N, M und H (N = niedriges Potential, M = mittleres Potential, H = hohes Potential) mit den Achsen: • Beurteilung relevanter Punkte von Prozessbeschreibungen hinsichtlich technischer Kriterien • Beurteilung relevanter Punkte von Prozessbeschreibungen hinsichtlich wirtschaftlicher Kriterien Im Ergebnis wurden im ersten Arbeitsschritt 158 Produktionsprozesse hinsichtlich ihres Vorfertigungspotentials untersucht. In der Bauteilgruppe „Rohbau und Betonbauteile“ konnten keine Prozesse mit hohem Vorfertigungspotential identifiziert werden, da dieser Bereich (hier insbesondere die Fertigteilbauweise) bereits durch einen hohen Vorfertigungsgrad gekennzeichnet ist. Mittleres bzw. niedriges Optimierungspotential wurde jedoch in den Bereichen • Doppelwände • Elementdecken und • TT-Decken gesehen. In der Bauteilgruppe „Raumbildender Ausbau“ konnten 9 Prozesse mit hohem Vorfertigungspotential identifiziert werden. 19 08_hda_querschnitt_gesamt.indb 19 18.03.2008 16:07:21 Uhr QUERSCHNITT 22 Sie entstammen den Bereichen • Zementheizestrich • Fließzementheizestrich • Anhydritheizestrich und • Anhydritfließheizestrich • Ziegel-Mauerwerk im Dickbett • KS-Mauerwerk im Dickbett • Vorsatzschalung aus zementgebundenen Platten • Farbanstrich (Wand) • Gipsplatten auf Metallunterkonstruktion • Farbanstrich (Decke) In der Bauteilgruppe „Dach und Fassade“ wurden 8 Prozesse mit hohem Vorfertigungspotential identifiziert. Zu nennen sind hier: • Zimmermanns-Konstruktionen (Kaltdach) • Photovoltaik-Module • Massiv-Decken (Warmdach) • Holzdecken (Warmdach) • Dachentwässerungsanschlüsse • Keramikbekleidungen (nicht hinterlüftet) • Massive Bekleidungen (hinterlüftet und nicht hinterlüftet) In der Bauteilgruppe „Fertighaus“ konnten 5 Prozesse mit hohem Vorfertigungspotential identifiziert werden: • Außenwand mit Putz • Außenwand verklinkert • Außenwand mit Holzverkleidung • Außenwand mit Verblendmauerwerk • Innenwand mit konventionellem Aufbau Die Ergebnisse wurden in einem international besetzten Workshop im April 2007 in Ludwigshafen (ca. 25 Teilnehmer aus der BASF) vorgestellt. Ziel war es, eine Einschätzung zu entwickeln, welche der als hoch rationalisierbar eingeschätzten Produktionsprozesse hinsichtlich ihrer technischen Umsetzbarkeit und hinsichtlich ihres Marktpotentials weiter untersucht werden sollten. Den Schwerpunkt des zweiten Arbeitsschrittes bildeten Feldstudien. Der Focus hierbei lag bei der Erhebung von Prozessdaten, der Schwachstellenanalyse und Wirtschaftlichkeitsbetrachtung sowie dem Aufzeigen von Optimierungspotentialen in beobachteten Produktionsprozessen. Hierzu wurden die Untersuchungsgebiete wie folgt abgegrenzt: • Füge-Technik im Bau • Beton- und Kunststoff-Komposit-Lösungen für den Bau • Selbstverdichtender Beton mit niedrigem Feinstoffgehalt (SVB) für die Fertigteilherstellung • Einzeluntersuchung zur Ertüchtigung einer Gebäudehülle mit Hilfe vorgefertigter Bauteile Füge-Technik im Bau Im Untersuchungsgebiet „Füge-Technik im Bau“ wurden zunächst sämtliche bekannten Füge-Techniken erfasst und katalogisiert. Im Rahmen der anschließenden Feldstudien wurden konkrete Anwendungen näher untersucht. Ziel war die Identifikation und Analyse von Schwachstellen, Problemen und Verbesserungsansätzen. Im Ergebnis ist ein großes Entwicklungspotential im Bereich der Füge-Technik von Betonbauteilen, insbesondere in den Bereichen Beton-Sandwichplatten und räumlich-komplexer Fertigteile zu erkennen. Räumlich-komplexe Fertigteile werden häufig in einem Arbeitsschritt / Gussvorgang hergestellt. Dadurch sind komplexe Schalungskörper erforderlich, die den geometrisch komplizierten Betonteilen ihre Form geben. Weiterhin gestaltet sich meist der Transport schwierig. Die Möglichkeit, einzelne Teile des Fertigteils unabhängig voneinander herstellen und anschließend verkleben zu können, lässt signifikante Vorteile erwarten. Klebtechniken für tragende Verbindungen bilden Klebedübel. Sind hohe Zugbelastungen durch Verbindungsflächen zu leiten, wie z. B. in den Ecken von Winkelstützmauern, so musste bislang von der Klebtechnik abgesehen werden. Die maßgebliche Schwachstelle stellt hierbei jedoch nicht der Kleber dar, sondern der Beton, welcher Zugkräfte nicht aufnehmen kann. Daher sollen die Verbindungsfugen an Stellen gelegt werden, an denen Druck- oder Scherspannungen auf die Fuge wirken. Sind hohe Schubbelastungen in der Verbindungsfuge zu erwarten, wie z. B. bei Dach-Sandwich-Platten, so ist der Einsatz einer kombinierten Füge-Technik denkbar. Hier ist der Einsatz der Klebtechnik in Verbindung mit Klebankern vorstellbar. Die Anker können in situ problemlos gesetzt werden und müssen nicht aufwändig im Zuge der Schalarbeiten eingearbeitet werden. Ihr Einsatz würde bei der Montage zu einer gewissen Grundfestigkeit der Verbindung führen, ohne dass der Kleber ausgehärtet sein muss. Durch die Anker könnte zudem das Kriechen des Klebers gemindert werden. 20 08_hda_querschnitt_gesamt.indb 20 18.03.2008 16:07:23 Uhr Produktinnovationspotentiale in der fabrikähnlichen Vorfertigung im Bauwesen FACHBEREICH BAUINGENIEURWESEN Abbildung 7 • Ausbreitversuch mit SVB Abbildung 6 • Herstellung von Beton-Sandwich-Platten Abbildung 8 • Sanierungsobjekt Dieser Lösungsansatz wäre auch bei der Herstellung von Wand-Sandwich-Platten denkbar. Große Lasten könnten über geklebte Anker übertragen werden. Die verschiedenen Schichten der Platten könnten dadurch in unabhängigen Herstellungsprozessen gefertigt werden. Würde eine tragfähige Wärmedämmung verwendet werden, könnte diese die Eigenlast der nicht-tragenden Betonschicht durch die Klebflächen aufnehmen und zusätzlich die Verwölbung der Betonschicht verhindern. wurden u. a. Anwender befragt, welche SVB einsetzen. Den Schwerpunkt dieser Arbeit bildeten auch hier Feldstudien bei ausgewählten Unternehmen. Bei diesen wurden zahlreiche Versuche zur Herstellung von SVB mit geringem Feinstoffgehalt mit jeweils unterschiedlichen Betonrezepturen durchgeführt, ausgewertet und analysiert. Für die Herstellung des SVB wurden jeweils besondere Ausgangsstoffe und Zusatzmittel verwendet. Als Ergebnis der Untersuchung ist festzustellen gewesen, dass der Einsatz von SVB mit geringem Feinstoffgehalt derzeit nur bei klar beherrschbaren Randbedingungen möglich ist. Beton- und Kunststoff-Komposit-Lösungen für den Bau Beton-Kunststoff-Systeme finden in der Bauindustrie ein breites Anwendungsgebiet. Hierbei werden die positiven Eigenschaften, welche beide Materialien auszeichnen, vorteilhaft genutzt. Ausgehend vom momentanen Stand der Anwendung von Beton-Kunststoff-Systemen im Bauwesen mit ihren Eigenschaften und Anwendungsmöglichkeiten wurden in Zusammenarbeit mit externen Anwendern neue Möglichkeiten für den Einsatz von Beton-Kunststoff-Systemen betrachtet. Dabei wurden entsprechende Produktionsprozesse ausgewählt. Es galt materialbedingte, verarbeitungsbedingte, transportspezifische sowie systemeinsatzbedingte Anforderungen an die (neuen) Verbindungen zu definieren. Im Ergebnis wurden die folgenden Anwendungsmöglichkeiten näher beschrieben: • Kleben von Beton und Kunststoff im Bereich schienengebundener Verkehrswege • Entwicklung einer tragenden Dämmung (Sandwichwand, Doppeldeckerdach) • Verkleben von Betonbauteilen Abschließend wurden adaptive Maßnahmen für die Produktionsprozesse vorgeschlagen und das mögliche ökonomische Potential der Anwendung abgeschätzt. Untersuchung zur Ertüchtigung einer Gebäudehülle mit Hilfe vorgefertigter Bauteile Die Sanierung einer unter Denkmalschutz stehenden Grundschule in Köln war Gegenstand dieser Untersuchung. Untersucht werden sollte dabei die Möglichkeit des Einsatzes vorgefertigter Bauteile zur Ertüchtigung der Gebäudehülle unter besonderer Berücksichtigung der objektspezifischen Randbedingungen. Nach Analyse des Gebäudebestandes mit Darlegung der vorhandenen bauphysikalischen Defizite erfolgte die Definition der Sanierungsziele: • Einhaltung des Denkmalschutzes • Einhaltung bzw. Unterschreitung der maßgebenden EnEVVorgaben • Einhaltung eines angemessenen Kosten- und Zeitrahmens Der Schwerpunkt der Arbeit lag in der Findung und Entwicklung möglicher Vorfertigungslösungen, speziell zur Ertüchtigung der Bauteile im Bereich der Außenfassade. Unter Abwägung der Vor- und Nachteile sowie unter Berücksichtigung der Randbedingungen wurde eine Reihe von Lösungsansätzen erarbeitet und überprüft. Es zeigte sich, dass durch die stringenten Vorgaben fast ausschließlich konventionelle Sanierungslösungen zum Ziel fühSelbstverdichtender Beton mit niedrigem Feinstoffgehalt ren. Eine werkseitige Vorfertigung ist oft als nicht sinnvoll bzw. (SVB) für die Fertigteilherstellung praktikabel zu erachteten. Eine Vorfertigung von RahmentaAusgehend von der Technologie des selbstverdichtenden Be- felelementen kommt lediglich im Bereich der Fassaden in Betons, der hier zu berücksichtigenden SVB-Richtlinie, welche tracht. Die Vorstellung der Studie bei der Gebäudewirtschaft Anforderungen an den Frischbeton und die dafür vorgeschrie- der Stadt Köln steht noch aus. benen Prüfungen stellt und der Idee der Entwicklung eines „Low Fines“, wurden zunächst die Vor- und Nachteile von SVB für die Herstellung von Betonfertigteilen untersucht. Hierzu 21 08_hda_querschnitt_gesamt.indb 21 18.03.2008 16:07:23 Uhr QUERSCHNITT 22 4 • Danksagung An dieser Stelle gilt abschließend ein ganz besonderer Dank der BASF und insbesondere den Damen und Herren des Unternehmens, die eine solche Form der Kooperation ermöglichen und unterstützen. Der Hochschule und ihren Studierenden wird auf diese Weise eine besondere Möglichkeit geboten an einer Weiterentwicklung von Wissen und Technologie teilzuhaben. Insbesondere gedankt seien Hr. Dr. Stephan Altmann, Hr. Dr. Manfred Genz, Hr. Dr. Hans-Günter Hauck und Hr. Dr. Stefan Kirsch. Dank auch den Studierenden und Mitarbeitern der h_da, die zum Gelingen des Projektes beigetragen haben. Literatur • 1 Forschungsbericht zum Forschungsprojekt der BASF Aktiengesellschaft, Ludwigshafen und der Hochschule Darmstadt, Fachbereich Bauingenieurwesen: „Identifizierung und Untersuchung von Rationalisierungspotentialen in Bauprozessen unter besonderer Berücksichtigung des Einsatzes von Bauprodukten oder deren Systemkomponenten“. Darmstadt, 2006. 2 J. Förster: „Identifizierung und Untersuchung von Bauprodukten oder Produktkomponenten in der fabrikähnlichen Vorfertigung im Bauwesen-Bauteilgruppe: Rohbau, Betonbauteile“. Diplomarbeit Hochschule Darmstadt, 2007. 3 J. Nöll: „Identifizierung und Untersuchung von Bauprodukten oder Produktkomponenten in der fabrikähnlichen Vorfertigung im Bauwesen – Bauteilgruppen: Boden, Wand, Decke“. Diplomarbeit Hochschule Darmstadt, 2007. 4 F. Deppner: „Identifizierung und Untersuchung von Bauprodukten oder Produktkomponenten in der fabrikähnlichen Vorfertigung im Bauwesen-Bauteilgruppen: Dach und Fassade“. Diplomarbeit Hochschule Darmstadt, 2007. 5 L. Michel: „Identifizierung und Untersuchung von Bauprodukten oder Produktkomponenten in der fabrikähnlichen Vorfertigung im Bauwesen-Bauteilgruppe: Haustechnik im Sanierungsbereich“. Diplomarbeit Hochschule Darmstadt, 2007. 6 F. Beck: „Identifizierung und Untersuchung von Bauprodukten oder Produktkomponenten in der fabrikähnlichen Produktion / Vorfertigung von Fertighäusern“. Masterarbeit Hochschule Darmstadt, 2007. 7 C. Gehlert: „Untersuchung zur Ertüchtigung einer Gebäudehülle mit Hilfe vorgefertigter Bauteile“. Diplomarbeit Hochschule Darmstadt, 2007. 8 E. Burger: „Vorfabrikation im Bauwesen: Füge-Techniken im Bau“. Diplomarbeit Hochschule Darmstadt, 2007. 9 T. Schäfer: „Vorfabrikation im Bauwesen: Beton-Kunststoff-Systeme für den Bau“. Diplomarbeit Hochschule Darmstadt, 2007. 10 V. Zahid: „Vorfabrikation im Bauwesen: Selbstverdichtender Beton mit niedrigem Feinstoffgehalt (SVB) für die Fertigteilherstellung“. Diplomarbeit Hochschule Darmstadt, 2007. der RWTH Aachen, Promotion an der TU Darmstadt (Institut für Baubetrieb) zum Einfluss von Fassadensystemen auf die schlüsselfertige Bauausführung; vor Berufung (2003) an den Fachbereich Bauingenieurwesen der Hochschule Darmstadt mehrjährige Projekttätigkeit im nationalem wie auch internationalem Umfeld in Bauunternehmungen (sowohl mittelständisch wie auch auf Konzernebene). Prof. Dr.-Ing. Andreas Lang Jahrgang 1957. Von 1979 bis 1983 Studium des Bauingenieurwesens mit Schwerpunkt Baubetrieb an der Technischen Hochschule Darmstadt. Von 1984 bis 1987 Wissenschaftlicher Mitarbeiter am Fachgebiet Baubetrieb der TH Darmstadt unter der Leitung von Prof. Dr.-Ing. Eberhard Schubert. Promotion auf dem Gebiet der Erfassung und Bewertung von Bauablaufstörungen 1987. Von 1988 bis 1990 Technischer Projektleiter in der Neubauabteilung der Fa. Boehringer Mannheim GmbH. Anschließend Gründung eines Ingenieurbüros zur Baubetriebsberatung. Seit März 1995 Professor für Bauwirtschaft und Projektmanagement im Fachbereich Bauingenieurwesen. Zahlreiche Publikationen und Seminare auf dem Gebiet des Nachtragsmanagements und der Bauablaufstörungen. Prof. Dr.-Ing. Lothar Ruf Jahrgang 1958. Studium des Bauingenieurwesens an der Technischen Hochschule Darmstadt. Berufliche Stationen auf Auftragnehmer- und Auftraggeberseite, sowie Ingenieurbüros. Promotion an der Technischen Hochschule Darmstadt am Institut für Baubetrieb auf dem Gebiet der Kostenplanung. Seit 1993 an der Hochschule Darmstadt im Fachbereich Bauingenieurwesen. Betreuer des Studienschwerpunktes Bauwirtschaft. Er vertritt die Fachgebiete Baubetrieb, Bauwirtschaft, Projektmanagement und Geodäsie. Dipl.-Ing. (FH) Andreas Hrastnik Jahrgang 1973. Studium des Bauingenieurwesens an der Fachhochschule Darmstadt, Vertiefungsrichtung Bauwirtschaft, mit Abschluss 2005 – zurzeit Masterstudium an der Hochschule Darmstadt, Schwerpunkt Bauwirtschaft. Wissenschaftlicher Mitarbeiter an der Hochschule Darmstadt am Fachbereich SUK /Sprachen 2001 und seit 04 /2005 am Fachbereich Bauingenieurwesen im Rahmen der Forschungskooperation mit der BASF Aktiengesellschaft, Ludwigshafen. Neben der wissenschaftlichen und administraKurzbiografien • tiven Arbeit Betreuung von insgesamt 17 Diplom- und MasterProf. Dr.-Ing. Dipl.-Wirt.Ing. Alexander Bubenik Jahrgang 1961. arbeiten, tlw. als Koreferent. Seit Abschluss des DiplomstuStudium des Bauingenieurwesens an der Technischen Hoch- diums freier Mitarbeiter in der RKS Ingenieurgesellschaft, schule Darmstadt und des Wirtschaftsingenieurwesens an Kleinostheim. 22 08_hda_querschnitt_gesamt.indb 22 18.03.2008 16:07:27 Uhr ■ Faberstraße 17 ■ D-67590 Monsheim ■ Tel.: 0 6 2 4 3 / 9 0 9 - 0 ■ Fax: 0 6 2 4 3 / 9 0 9 - 4 0 0 ■ ISDN:0 6 2 4 3 / 9 0 9 - 4 9 9 ■ www.vmk-verlag.de Verlag für Marketing und Kommunikation 08_hda_querschnitt_gesamt.indb 192 GmbH & Co KG ■ [email protected] 18.03.2008 16:11:12 Uhr QUERSCHNITT 22 24 08_hda_querschnitt_gesamt.indb 24 18.03.2008 16:07:27 Uhr Biogas aus Bioabfall FACHBEREICH CHEMIE- UND BIOTECHNOLOGIE BIOGAS AUS BIOABFALL UNTERSUCHUNGEN ZUR BIOABFALLVERGÄRUNG AN DER HOCHSCHULE DARMSTADT UND IN EINEM KOMPOSTWERK Autoren • Prof. Dr. Hans-Jürgen Koepp-Bank, Dipl.-Ing. (FH) Anja Heselich, Dipl.-Ing. (FH) Heiko Mannsperger und Dipl.-Ing. (FH) Astrid Püstel 1 • Ausgangssituation In technischen Systemen werden vorwiegend fossile Energiequellen in Form stark reduzierter Kohlenstoff verbindungen mit hohem Energieinhalt eingesetzt. Im Gegensatz hierzu dienen in natürlichen Stoffkreisläufen organische Substanzen auf der (mittleren) Reduktionsstufe von polymeren Kohlenhydraten (Stärke, Zellulose) zugleich als Kohlenstoff- und Energiespeicher. Diese werden je nach Umgebungsbedingungen aerob zu Kohlendioxid oxidiert („Atmung“) oder – was sie auch technisch interessant machen – anaerob zu Methan reduziert („Methanisierung“). Der letzte Schritt findet in der Natur z.B. in Fluss- und Meeressedimenten, im Pansen von Wiederkäuern, im Darm von Termiten und in überfluteten Reisfeldern statt. Nahezu jede Kohlenstoff verbindung kann zu Methan und Kohlendioxid disproportioniert werden (Symons & Buswell 1933): CC Hh OO NN SS + 41 (4c – h – 2o + 2s) H2O → 1 1 8 (4c – h + 2o + 3n + 2s) CO2 + 8 (4c + h – 2o – 3n – 2s) CH4+ nNH4+ sH2S 25 08_hda_querschnitt_gesamt.indb 25 18.03.2008 16:07:36 Uhr QUERSCHNITT 22 Biogasproduktion (mL) 600 500 400 300 200 100 0 0 1 2 3 4 5 6 7 Tage Abbildung 1 • Anaerobe Messfl aschen zur manometrischen Biogasmessung Abbildung 2 • Anaerober Abbau von Biopresswasser (BPW) und Deponiesickerwasser (DSW) in unterschiedlicher Zusammensetzung Je reduzierter eine organische Verbindung ist, desto höher ist der Methananteil: zur Reinigung von organisch hoch belasteten Abwässern der Papier- und Zellstoffindustrie, der Zucker-, Stärke- und Lebensmittelindustrie eingesetzt. Auch organische Feststoffe werden schon lange zu Biogas vergoren: so wurde bereits 1947 in Darmstadt ein horizontaler Fermenter zur anaeroben Umsetzung landwirtschaftlicher Abfallstoffe („System Darmstadt“) entwickelt. In den 50er Jahren des letzten Jahrhunderts gab es in Deutschland bereits ca. 50 Biogasanlagen für landwirtschaftliche Abfallstoffe (Schulz 1996). Ebenso werden Bioabfälle in Deutschland seit mehr als 30 Jahren getrennt gesammelt und stofflich verwertet, d.h. kompostiert oder vergoren. Seit den 90er Jahren hat sich die Menge des getrennt gesammelten Bioabfalls mehr als versiebenfacht. Bei der Kompostierung von Bioabfällen fallen zwischen 10 und 20 % (v /v) organisch hoch belastete Presswässer an, die bisher zumeist in kommunalen Kläranlagen gereinigt werden. Im Auftrag der Gesellschaft für Bioabfallwirtschaft (GBAB) Aschaffenburg wurde der anaerobe Abbau eines im Kompostwerk Aschaffenburg anfallenden Biopresswassers untersucht. Dabei kann sich die Menge des Biopresswassers bei einer mechanischen Vorbehandlung des Bioabfalls noch erhöhen. Zusätzlich wurde der gemeinsame anaerobe Abbau dieses Biopresswassers mit einem Sickerwasser der Hausmülldeponie Stockstadt untersucht, das bisher ebenfalls in der kommunalen Kläranlage aerob gereinigt wurde. Geplantes Ziel der Kommune war die gemeinsame Cofermentation beider Abwässer in einem Bioreaktor zu Biogas. Bsp.: Glucose: C6 H12 O6 → 3CO2 + 3CH4 Buttersäure: C4 H8 O2 + H2O → 1,5 CO2 + 2,5 CH4 Damit sind z.B. langkettige Alkohole und Fettsäuren die besten Substrate für hohe Methanausbeuten, zugleich gehören sie jedoch zu den energetisch problematischen Verbindungen, die nur von obligat syntrophen mikrobiellen Mischkulturen umgesetzt werden können (Schoberth 1978). Die mikrobielle Umsetzung organischer Feststoffe erfolgt unter anaeroben Bedingungen in mehreren Schritten, wobei die vorgelagerte Hydrolyse der Polymere den geschwindigkeitsbestimmenden Schritt darstellt. Daher ist eine vorherige mechanische Zerkleinerung zur Vergrößerung der Angriffsfläche für die hydrolysierende Bakterien sowie zum Aufschluss von Lignocellulose-Komplexen eine Voraussetzung zur wirtschaftliche Biogaserzeugung aus Biomüll (Scherer 2001). Als Zwischenprodukte bei der weiteren anaeroben Umsetzung werden verschiedene Alkohole und Fettsäuren gebildet. Der Abbau der Fettsäuren zu Essigsäure, Wasserstoff und Kohlendioxid bildet thermodynamisch einen kritischen Schritt der Methangärung, der nur von obligat syntrophen Mischkulturen katalysiert werden kann. Bei Störungen des anaeroben Abbaus kommt es zu einer Anreicherung von organischen Säuren, was in der Betriebspraxis an einem Abfall des pH-Wertes zu erkennen ist. Essigsäure, Wasserstoff und Kohlendioxid bilden schließlich die Substrate für die letzte Gruppe des anaeroben Abbaus, die Methanbakterien. Die anaerobe Umsetzung wird schon seit langem erfolgreich 26 08_hda_querschnitt_gesamt.indb 26 18.03.2008 16:07:37 Uhr Biogas aus Bioabfall FACHBEREICH CHEMIE- UND BIOTECHNOLOGIE 4500 4000 3500 CSB (mg/L) 3000 2500 2000 1500 1000 500 0 0 % BPW 100 % DSW 33 % BPW 66 % DSW 67 % BPW 33 % DSW 100 % BPW 0% DSW Kontrolle Anteil Biopresswasser (BPW) / Deponiesickerwasser (DSW) Abbildung 3 • Gemeinsamer anaerober Abbau von Biopresswasser und Deponiesickerwasser unterschiedlicher Zusammensetzung nach 3 bzw. 7 Tagen Abbildung 4 • Laborfermenter für anaerobe Abbauuntersuchungen 2 • Abwässer Für die Untersuchungen wurde zunächst Biopresswasser des Kompostwerkes Aschaffenburg und Sickerwasser der Deponie Stockstadt verwendet. Erste Analysen der beiden Abwässer ergaben folgende Werte (Tab. 1): 3 • Voruntersuchungen zur anaeroben biologischen Abbaubarkeit Zur Untersuchung der anaeroben Abbaubarkeit von flüssigen und festen organischen Substanzen werden sowohl BatchTests (z.B. ATV-DVWK 2004, DIN EN ISO 11734) als auch kontinuierliche Testverfahren in Fermentern eingesetzt (Jörg 2001). Dabei sind die besonderen physiologischen Bedingungen für die anaeroben Mischkulturen zu beachten: insbesondere die Redoxverhältnisse (Methanbakterien sind extrem sauerstoffempfindlich), die Temperatur, der pH-Wert und die Nährstoffverhältnisse beeinflussen den anaeroben Abbau. Sowohl Batch- als auch kontinuierliche Abbautests erfordern daher eine strikt anaerobe Arbeitsweise: für die Untersuchungen wurden die Messflaschen bzw. Fermenter unter Stickstoff-Begasung mit der Animpf-Biomasse und den zu untersuchenden Abwasser- bzw. Abfallproben gefüllt. Die Inkubation erfolgte anschließend bei 37 °C, da in diesem mesophilen Bereich der anaerobe Abbau am stabilsten abläuft. Der pH-Wert wurde auf einen Wert von pH 7,0 eingestellt: hier ist insbesondere der enge pH-Optimumswert von pH 6,8-7,2 für die obligat syntrophen Fettsäure abbauenden Mikroorganismen zu beachten. Für die diskontinuierlichen Abbau-Untersuchungen wurde ein modifizierter manometrischer Batch-Test verwendet, der ursprünglich für die Bestimmung der aeroben Abbaubarkeit von Abwässern entwickelt wurde (Süßmuth et al. 2000). Dabei wird die Biogasproduktion der mit anaerobisiertem Wasser verdünnten Proben manometrisch über den Druckanstieg in den Flaschen erfasst (Koepp-Bank 2005) (Abb.1). Während des Versuches können zusätzlich über seitlich angebrachte gasdichte Septen Proben des Flascheninhalts entnommen und analysiert werden. Abwasser Biopresswasser Deponiesickerwasser CSB (mg/L) ph-Wert 3.605 - 57.725 4,1 - 8,4 825 - 1.190 7,5 - 7,6 Tabelle 1 • Analyse der untersuchten Abwässer Das Biopresswasser enthielt je nach Anlieferung einen unterschiedlich hohen Anteil an Feststoffen (u.a. Pflanzenreste, Holz, Maden). Die stark schwankende Konzentration des Chemischen Sauerstoffbedarfs (CSB) ist auf eine unterschiedliche Lagerdauer des Biomülls in den Biotonnen und im Kompostwerk zurück zu führen. Bei längerer Lagerdauer setzt die Hydrolyse und Vergärung der organischen Inhaltsstoffe ein, was zu einer Absenkung des pH-Wertes aufgrund der intermediär gebildeten Fettsäuren führt. Der niedrige CSB-Gehalt des Deponiesickerwassers deutet in Verbindung mit dem neutralen pH-Wert auf eine bereits weitgehend stabilisierte Deponie hin. Das CSB:N:P-Verhältnis des Deponiesickerwassers liegt bei ca. 200:124:1, wobei der Stickstoff hauptsächlich in reduzierter Form als Ammonium vorliegt. Das CSB:BSB5-Verhältnis liegt bei ca. 6:1, was auch auf eine schlechte aerobe biologische Abbaubarkeit des Sickerwassers hinweist. 27 08_hda_querschnitt_gesamt.indb 27 18.03.2008 16:07:43 Uhr QUERSCHNITT 22 Kumulierte Biogasproduktion [L] Biogas (L) CSB (mg/L) 1200 1000 Biogasproduktion 800 600 400 CBS-Konzentration 200 0 0 5 10 15 500 1,6 400 1,4 350 1,2 300 1 250 0,8 200 0,6 150 0,4 100 0,2 50 0 0 20 0 10 20 30 40 50 60 70 Tage 80 90 100 Tage Abbildung 5 • Anaerober Abbau von Biopresswasser im Laborfermenter Abbildung 7 • Kumulierte Biogasproduktion im kontinuierlich betriebenen Laborfermenter Die Biogasproduktion und der Verlauf der CSB-Konzentration zeigen, dass das Deponiesickerwasser anaerob nicht weiter abgebaut wird (Abb. 1 und 2). Offenbar ist der Abbauprozess in der Deponie bereits soweit fortgeschritten, dass nur noch biologisch schwer abbaubare Inhaltsstoffe im Sickerwasser enthalten sind. Für eine gemeinsame Cofermentation mit Biopresswasser ist daher das Deponiesickerwasser nicht geeignet. Das Biopresswasser dagegen ist anaerob leicht abbaubar. Die CSB-Konzentration wurde innerhalb von 7 Tagen um über 90 % reduziert und zu Biogas umgesetzt (Abb.3). Die weiteren Untersuchungen wurden daher nur noch mit Biopresswasser durchgeführt. der intermediär gebildete Wasserstoff zu einer Inhibierung der weiteren Umsetzung, insbesondere der Propionsäure. Die Biogasproduktion wurde mit einer Gasuhr gemessen. Proben des Fermenterinhalts wurden unter anaeroben Bedingungen entnommen und die CSB-Konzentration photometrisch bestimmt. Das verdünnte Biopresswasser wurde bereits in den ersten Tagen zur Hälfte abgebaut (Abb. 5). Mit der nicht adaptierten Animpfbiomasse und verdünntem Biopresswasser wurde ein CSB-Abbaugrad von über 60 % erreicht. Entsprechend dem CSB-Abbau erreichte die Biogasproduktion bereits in den ersten Tagen ein Maximum und sta- 4 • Diskontinuierliche Abbauuntersuchungen in einem Laborfermenter Die Untersuchungen zur anaeroben Abbaubarkeit in einem diskontinuierlich betriebenen Laborfermenter wurden im Labor für Bioverfahrenstechnik der Hochschule Darmstadt durchgeführt (Abb. 4). Der Rührkesselreaktor wurden unter Stickstoffbegasung mit dem Abwasser gefüllt und mit Faulschlamm aus der kommunalen Kläranlage Aschaffenburg angeimpft. Das Biopresswasser wurde aufgrund der hohen CSB-Konzentration mit zuvor anaerobisiertem Wasser verdünnt. Der pH-Wert wurde auf pH 7,0 eingestellt und gegebenenfalls nachgeregelt. Die Temperatur im Fermenter wurde mit einem externen Wasserbad auf 37 °C eingestellt. Die Rührerdrehzahl wurde auf ca. 60 U /min gedrosselt, um eine Inhibierung der obligat syntrophen Mischkulturen zu vermeiden. Werden die beteiligten Mikroorganismen z.B. durch Scherkräfte räumlich getrennt, so führt Abbildung 6 • Laborfermenter im Kompostwerk Aschaffenburg 28 08_hda_querschnitt_gesamt.indb 28 18.03.2008 16:07:49 Uhr Biogas aus Bioabfall FACHBEREICH CHEMIE- UND BIOTECHNOLOGIE Gelöster CSB [mg/L] Gasproduktion [L Gas/g CSBelim] 20000 0,9 18000 0,8 16000 0,7 14000 0,6 12000 0,5 10000 8000 0,4 6000 0,3 4000 0,2 2000 0,1 0,0 0 0 10 20 30 40 50 60 70 80 90 100 Tage 0 20 40 60 80 100 Tage Abbildung 8 • Verlauf der CSB-Konzentration im kontinuierlich betriebenen Laborfermenter Abbildung 9 • Spez. Biogasproduktion bezogen auf den eliminierten CSB gnierte anschließend. Offensichtlich wurden biologisch leicht abbaubare Inhaltsstoffe des Biopresswassers bereits in den ersten Tagen methanisiert. Dieses durch mechanische Zerkleinerung des Bioabfalls gewonnene Biopresswasser ist organisch sehr hoch belastet, was wiederum auf eine bereits eingesetzte Hydrolyse und Versäuerung hinweist. Nach einer Adaptionsphase des zur Animpfung verwendeten Faulschlammes von ca. 3 Wochen konnte die Zugabe des Biopresswassers und damit die Biogasproduktion deutlich gesteigert werden (Abb. 7). Die CSB-Konzentration im Bioreaktor reduzierte sich im Laufe der anaeroben Umsetzung von zu Beginn über 15.000 mg /L auf Konzentrationen im Bereich von 3.500-4.000 mg /L (Abb. 8). Die Zugabe von frischem Biopresswasser erfolgte dabei in Abhängigkeit von der Abbaugeschwindigkeit repetitiv: dabei wird ein Teil des weitgehend umgesetzten Reaktorinhalts umgehend durch frisches Biopresswasser ersetzt. Wie der Verlauf der CSB-Konzentration des Laborfermenters zeigt, wurde das frisch zugesetzte Biopresswasser rasch umgesetzt. Die spezifische CSB-Abbauleistung lag nach der Adaptionsphase bei 4-8 kg CSB /(m³*d). Die durchschnittliche spezifische Biogasproduktion betrug nach der Adaptionsphase ca. 0,4-0,5 L Biogas /g CSBelim (bezogen auf den gelösten CSB)(Abb.9). Die theoretische Methanausbeute liegt entsprechend: CH4 + 2O2 → CO2 + 2H2O bei ca. 0,350 NL Methan /g CSBelim bzw. bei 0,525 NL Biogas /g CSBelim und einem angenommenen Methan-Gehalt von 66 %. 5 • Kontinuierliche Abbauuntersuchungen im Kompostwerk Aschaffenburg Ein Nachteil von Abbauuntersuchungen im Labor ist, dass Schwankungen in der Zusammensetzung des Abwassers nicht erfasst werden können. Aussagen über reale Abbauleistungen ermöglichen nur Fermentationsversuche vor Ort. Daher wurden die folgenden Untersuchungen direkt im Kompostwerk der Stadt Aschaffenburg in einem Rührkesselfermenter durchgeführt (Abb. 6). Das dabei verwendete Biopresswasser wurde durch mechanische Vorbehandlung in der Kompostanlage Schuh (Langenzenn-Keidenzell) gewonnen. Dazu wurden frisch gesammelte organische Abfälle zerkleinert, gesiebt, homogenisiert und die Flüssigphase abgetrennt. Zur Bestimmung der CSBgesamt-Konzentration wurde das Biopresswasser zuvor homogenisiert. Das Biopresswasser wies folgende Zusammensetzung auf (Tab. 2): CSB gelöst (g/L) 116-166 TS-Gehalt (g/L) 20,7 Glühverlust (%) 73,5 Gesamt-Stickstoff (g/L) 3,79 pH-Wert 4,43 Tabelle 2 • Zusammensetzung des Biopresswassers der Kompostanlage Langenzenn 29 08_hda_querschnitt_gesamt.indb 29 18.03.2008 16:07:52 Uhr QUERSCHNITT 22 6 • Schluss Das ursprüngliche Ziel der Kommune, das Deponiesickerwasser im Rahmen einer Cofermentation mit Biopresswasser zu vergären, erwies sich als ungeeignet. Dagegen lässt sich sowohl das bei der Kompostierung anfallende Biopresswasser als auch Bioabfall nach mechanischer Vorbehandlung zu über 90 % zu Biogas vergären. Im Jahr 2003 wurden etwa 12,3 Mio. t Bioabfälle aus Haushalten, Garten- und Parkabfälle, Abfälle aus der Lebensmittelverarbeitung, aus Gaststätten und Großküchen sowie der Landwirtschaft in mehr als 800 Kompostierungsanlagen und ca. 75 Vergärungsanlagen behandelt. Bis spätestens 2020 sollen die Behandlungstechniken darüber hinaus so weiterentwickelt und ausgebaut werden, dass alle Siedlungsabfälle in Deutschland vollständig und umweltverträglich verwertet werden (UBA 2007). Während bei der Kompostierung von Bioabfall die leicht abbaubare Fraktion zu Kohlendioxid und Wasser oxidiert und die schwerer abbaubare Fraktion zu Kompost umgesetzt wird, wird bei der Vergärung von Bioabfall Biogas gebildet. Dabei sind die Abbauraten der Biomasse bei der Kompostierung und Vergärung in etwa gleich. Während erste Kompostierungsanlage in Duisburg und Bad Kreuznach bereits in den 50er Jahren errichtet wurden, wurden Vergärungsanlagen für Biomüll aus Haushalten erst Ende der 90er Jahre geschaffen. Seither hat sich die Behandlungskapazität von Anlagen zur Vergärung von Bioabfällen in Deutschland auf 2,4 Mio. t im Jahr 2005 nahezu verzehnfacht (Baur 2005). Der verstärkte Anstieg der Rohölpreise in den letzten Jahren hat gleichzeitig zu einer Verteuerung der agrarischen Rohstoffpreise geführt. Im Zuge des weltweiten Booms bei Bioethanol und Biodiesel wird heute bereits ein Fünftel der amerikanischen Maisernte in Biotreibstoffe umgewandelt (Stadlbauer 2007). Vor diesem Hintergrund gewinnt die Energieerzeugung durch Vergärung von Bioabfall an Bedeutung. Aus Bioabfällen aus Haushalten lassen sich ca. 0,4 m3 Biogas / kg organische Trockensubstanz (oTS) gewinnen. Bei einer angenommen Jahresmenge von 6 Mio t durch zusätzliche Erfassung von Bio- und Grünabfällen könnten damit jährlich 1,2 Mrd. m3 Biogas bei vollständiger Vergärung erzeugt werden. Damit ließe sich zugleich aus Sicht des Klimaschutzes ein erhebliches Potential erschließen (UBA 2007). 30 08_hda_querschnitt_gesamt.indb 30 18.03.2008 16:07:53 Uhr Biogas aus Bioabfall FACHBEREICH CHEMIE- UND BIOTECHNOLOGIE Abbildung 10 • Kompost als Endprodukt der Bioabfallverwertung (Fotorealisation mit freundlicher Unterstützung des Kompostwerkes Darmstadt-Dieburg) Literatur • 1 ATV-DVWK-Arbeitsgruppe IG 5.1: Anaerobe Testverfahren zu Abbaubarkeit, Hemmung und Aktivität. Korrespondenz Abwasser 51, 997-1002 (2004) 2 Baur F.: Stromerzeugung aus Bioabfällen in Deutschland – ein Beitrag zum Klimaschutz. Regionales Abfallforum des Entsorgungsverbandes Saar (2005) 3 Deutsche Einheitsverfahren zur Wasser-, Abwasser und Schlammuntersuchung (DEV): Bestimmung der „vollständigen“ anaeroben biologischen Abbaubarkeit organischer Verbindungen im Faulschlamm - Verfahren durch Messung der Biogasproduktion. (DIN EN ISO 11734) 4 Jörg R.: Testverfahren zur anaeroben biologischen Abbaubarkeit. In: Kämpfer P., Weißenfels W.D.: Biologische Behandlung organischer Abfälle. Berlin: Springer (2001) 5 Koepp-Bank H.-J.: Einsatz eines mikrobiellen Batchtest zur Untersuchung der anaeroben Abbaubarkeit von Abwässern der Papier- und Zellstoffindustrie. Querschnitt Nr. 19, 118-119 (2005) 6 Scherer P.: Mikrobiologie der Vergärung von festen Abfallstoffen. In: Kämpfer P., Weißenfels W.D.: Biologische Behandlung organischer Abfälle. Berlin: Springer (2001) 7 Schoberth S.M.: Mikrobielle Methanisierung von Klärschlamm. In: Biologische Abfallbehandlung. BMFT Bonn (1978) 8 Schulz H.: Biogas-Praxis: Grundlagen, Planung, Anlagenbau. Ökobuch: Staufen (1996) 9 Stadlbauer E.A.: Energie frisst Nahrung. η[energie] 3, 2627 (2007) 10 Symons G.E. & Buswell A.M.: The methane fermentation of carbohydrates. J. Am. Chem. Soc. 55, 2028-2036 (1933) 11 Süßmuth R., Doser C., Lueders T.: Bestimmung der biologischen Abbaubarkeit organischer Stoffe unter anaeroben Bedingungen mit dem Meßsystem OxiTop Control. WTWBericht 0600412 (2000) 12 Umweltbundesamt (UBA): Stoffstrommanagement von Biomasseabfällen mit dem Ziel der Optimierung der Verwertung organischer Abfälle. Umweltbundesamt: Dessau (2007) Kurzbiografie • Prof. Dr. Hans-Jürgen Koepp-Bank Jahrgang 1956. Studium der Biologie und Geographie an der Universität Köln (19751982). Von 1982-1985 wissenschaftlicher Mitarbeiter am Institut für Biotechnologie des Forschungszentrums Jülich. 1986 Promotion auf dem Gebiet der industriellen anaeroben Abwasserreinigung an der Universität Düsseldorf bei Prof. Dr. Sahm. Von 1985-1993 Tätigkeit in der Industrie, u.a. bei der Fa. Siemens-KWU im Bereich Biotechnischer Anlagenbau. 19931998 Professur für Bioverfahrenstechnik und Technische Mikrobiologie an der Fachhochschule Köln. Seit 1998 Professor für Bioverfahrenstechnik im Fachbereich Chemie- und Biotechnologie der Hochschule Darmstadt. 31 08_hda_querschnitt_gesamt.indb 31 18.03.2008 16:07:53 Uhr QUERSCHNITT 22 μ-GRIDS DER WEG ZU INTELLIGENTEN STROMNETZEN UND UMWELTFREUNDLICHER STROMVERSORGUNG Autoren • Thorsten Fiedler und Dieter Metz 1 • Kurzfassung Die elektrische Energieversorgung Europas befindet sich in einer Umorientierungsphase. Der Klimaschutz, die Liberalisierung und der alterungsbedingte Erneuerungsbedarf in den Netzen erfordern eine Umgestaltung. Im Erzeugungsbereich ist durch den Einbezug regenerativer Quellen ein Anfang gemacht, aber schon dieser hat die historisch gewachsene Infrastruktur der Netze an die Grenzen belastet. Der weitere, dringend notwendige Ausbau überfordert die bestehenden Netze und ihr Stabilitätskonzept, das zentral strukturiert ist und auf der hohen Verfügbarkeit vieler Großkraft werke basiert [1]. Eine strukturelle Umgestaltung ist notwendig, die auch bei dezentraler, fluktuierender und regenerativer Einspeisung eine hohe Stabilität und Verfügbarkeit garantiert. „μ-Grids“, „SmartGrids“ und „Intelligente Stromnetze“ sind Stichworte für Lösungen, die in diesem Aufsatz diskutiert werden. 2 • Motivation und Aufgabe Für die bestehende, zentral strukturierte Stromversorgung in Europa stellen sich neue Herausforderungen, insbesondere durch den stetig steigenden Bedarf an Energie, durch die Notwendigkeit der deutlichen Reduktion klimaschädlicher Gase und durch die fortschreitende Liberalisierung mit Öffnung der Energiemärkte. Zweifellos hat die Stromversorgung in den ca. 100 Jahren ihres Bestehens Wesentliches zur Entwicklung der Gesellschaft und der Wirtschaft beigetragen. Sie arbeitete bis in die 90er Jahre des letzten Jahrhunderts ausgesprochen zuverlässig und gewissermaßen unauffällig, gerade auch in der Bundesrepublik, und ist erst in den letzten Jahren von größeren Störungen und Ausfällen betroffen. Sicher trugen der Liberalisierungsprozess und dessen Folgen mit Einsparmaßnahmen an Personal und Investitionen zu einer Verschlechterung bei. Letztlich ist aber aus heutiger Sicht die historisch gewachsene Struktur gleich mehrfach unbefriedigend: Die Produktion gefährdet das Klima, die Netzkapazitäten ermöglichen den freien Energieaustausch nur unzureichend und die Versorgungszuverlässigkeit ist trotz erheblicher Preissteigerungen wachsend gefährdet. 32 08_hda_querschnitt_gesamt.indb 32 18.03.2008 16:08:01 Uhr μ-Grids FACHBEREICH ELEKTROTECHNIK UND INFORMATIONSTECHNIK S DK ? ? ne e Pe Hamburg Elb e Bremen PL NL er vel Od Ha All er Hannover Berlin er es W Essen Elbe Dortmund Leipzig We r Ruhr ra Dresden Köln B Fulda ein Rh Frankfurt os el Mai M n L CZ Stuttgart Donau Ne F Karlsruhe ck ar Saar Nürnberg München Inn ar Is ch Le A CH Leitungsverbindungen 330 kV 220 kV HGÜ-Freileitung/Kabel Stromrichterstationen Umspannwerke Städte Abbildung 1 • Das bestehende Transportnetz der Bundesrepublik, Quelle: BDEW I 08_hda_querschnitt_gesamt.indb 33 33 18.03.2008 16:08:03 Uhr QUERSCHNITT 22 Die Stromversorgung Europas wuchs in den vergangenen ca. 100 Jahren permanent, wobei die Struktur auf der Basis gesicherter Gebietsmonopole entstand. Dies führte in der Bundesrepublik zu einem Erzeugungsmix mit überwiegend großen Wärmekraftwerken (Kohle- und Kernkraft) oft mit Leistungen von mehreren 1000 MW und zu einem darauf hin zugeschnittenen Transport- und Verteilnetz in die Verbraucherschwerpunkte. Schon die Einbindung von weniger als 10 % Windkraft an neuen Standorten belastete die Netze im Grenzbereich, gebietsweise auch darüber [2]. Das bestehende 400-kV Transportnetz der Bundesrepublik ist in Abb. 1 dargestellt. Sie erkennen, dass beispielsweise für offshore Windparks in der Nord- und Ostsee kein ausreichendes Transportnetz besteht, um diese großen Energien im Netz zu verteilen. Der Klimaschutz fordert nun eine wesentliche Steigerung des Anteils an dezentraler, regenerativer Erzeugung. Die Stromversorgung in Deutschland muss dann künftig völlig neuen Anforderungen genügen, denen die historisch gewachsene Struktur offensichtlich nicht mehr gerecht wird. An Aufgaben entstehen insbesondere • die Integration bereits existierender oder geplanter regenerativer Erzeugung mit hoher fluktuierender Leistung (Onund Offshore-Windparks) in erweiterte Übertragungsnetze, • die Unterstützung und Realisierung eines europäischen Strommarktes mit weiträumigem Austausch und entsprechend hoher Transportkapazität, • die Bildung von stabilen Teilnetzen mit eigener Bezugsoptimierung, Lastführung, lokalen Kleinkraftwerken und dezentralen Speichern, oft als „SmartGrids“ oder „μ-Grids“ bezeichnet, • Verfahren zur sicheren und wirtschaftlich optimierten Planung der Netze und Speicher, • die intelligente Netzführung mit Prognose, Speicherbewirtschaftung und Lastführung zur Optimierung und Steigerung der Energieeffizienz auf lokaler Ebene, • die Überwachung der Netze, lokal und auf europäischer Ebene und • Trainingswerkzeuge zur sicheren Netzführung. Gerade die traditionelle Planung der Netze, die auf den Monopolmarkt zugeschnitten den Kraftwerks- und Netzausbau integriert und als Einheit betrachtete, ist unter den neuen Marktbedingungen nicht mehr zeitgemäß, da mit dem Unbundling (Auftrennen der Versorger in Unternehmen für Produktion, Netztransport und Handel /Vertrieb) zunehmend neue Marktteilnehmer mit eigenen, überwiegend regenerativen Erzeugungskapazitäten an neuen Standorten im Markt tätig werden und für deren Marktteilnahme ausreichend Einspeise- und Transportkapazität bereitstehen sollte. Unter den grundsätzlich veränderten Rahmenbedingungen im Markt und den dringenden Zielen des Klimaschutzes gilt es, die technischen Voraussetzungen zu schaffen, dass die Ziele der Umweltverträglichkeit, des diskriminierungsfreien Marktzugangs und der Versorgungssicherheit gleichermaßen erreicht werden. Da die Infrastruktur der Stromversorgung sehr teure und sehr langlebige Wirtschaftsgüter enthält und allein in der Bundesrepublik viele 100 Milliarden Euro in diese Infrastruktur investiert wurden, kann es nicht darum gehen, die bestehende Infrastruktur komplett und sofort zu ersetzen, sondern darum, einen Migrationsvorgang in Bewegung zu setzen, der die Stromversorgung im gewünschten Sinne transformiert, so dass in etwa 10 Jahren die gewünschten Ziele erreicht werden können. 3 • Lösungsansätze für eine zukunftsfeste Versorgungsstruktur Durch Studien des VDE, ZVEI, VDN und anderer Institutionen und Verbände ist die bestehende Infrastruktur weitgehend analysiert, und die Schwächen sind bekannt. Verschiedene Lösungsschritte teils sehr unterschiedlicher und widersprüchlicher Art, sind in der Diskussion. Erklärbar sind die Widersprüche durch die strategischen Ziele der Unternehmungen. Sicher haben die vier großen Stromproduzenten eher das Ziel weitere große Einheiten, auch große Windparks, in die Netze zu integrieren, während die kleineren kommunalen Unternehmen eher eine Unabhängigkeit anstreben und am Ausbau interner, kleiner Einheiten interessiert sind. Die Lösungen werden im Spannungsfeld technischer Möglichkeiten und politischer 34 08_hda_querschnitt_gesamt.indb 34 18.03.2008 16:08:04 Uhr μ-Grids FACHBEREICH ELEKTROTECHNIK UND INFORMATIONSTECHNIK 400 kV DST DST KKW HGÜ DST DST AKW WP 400 kV DST Abbildung 2 • Struktur eines künftigen Übertragungsnetzes mit HGÜ und nationalen 400-kV Drehstrom-Netzen, HGÜ: Hochspannungs-Gleichstrom-Übertragung, DST: Drehstomnetz, WP: Windpark, AKW: Kernkraftwerk, KKW: Kohlekraftwerk Randbedingungen gefunden. Wie sie auch immer im Detail aussehen werden, wichtig ist die die Entwicklung von Prognose-, Simulations- und Planungswerkzeugen zur sicheren Definition der geeigneten Migrationsschritte. Die Simulationswerkzeuge werden Kontrollrechnungen zur Dimensionierung, Verifikation und Optimierung der Netze und Komponenten ermöglichen. Die Werkzeuge müssen allerdings flexibel für die Prüfung unterschiedlicher Lösungswege geeignet sein. Insbesondere fehlen noch: 1 • Effiziente Prognoseverfahren für - einen variablen Erzeugungsmix mit fluktuierender, regenerativer Einspeisung, - Lastverläufe, die mit flexibler Tarifgestaltung beeinflussbar sind, 2 • Werkzeuge zur Dimensionierung der μ-Grids mit variablem Erzeugungsmix, mit hohem regenerativem Anteil und mit dezentralen Speichern, 3 • EU-weite Lastflussrechnungen und Ausfallsimulationen für künftige Netzstrukturen mit Prüfung von Komponenten zur Förderung der Systemstabilität, 4 • Konzepte und Systeme Informations- und Leittechnik zum sicheren Datenaustausch zwischen den Leitstellen, 5 • Frühwarnsysteme sowie Trainings- und Schulungswerkzeuge für den sicheren operativen Betrieb der künftigen Netze. 4 • Netzstruktur Für einen Stromaustausch sind die bestehenden 400-kV Drehstromnetze durchaus geeignet. Mit wachsender Entfernung wird das aber zunehmend problematischer und es treten Stabilitäts- und Blindleistungsprobleme auf, die hohe Investitionen in Kompensationsanlagen oder so genannte FACTS (Flexible AC Transmission Systems) erfordern. Die Gerätetechnik existiert, jedoch hat man in der Bundesrepublik damit noch wenig praktische Erfahrungen. Eine andere Technologie, die der Hochspannungs-Gleichstromübertragung (HGÜ), erlaubt einen weiträumigen, verlustarmen Transport, bei der die Entfernung eine nur untergeordnete Rolle spielt und bei der keine Blindleistungsprobleme auftauchen. Sie erlaubt außerdem den Parallelbetrieb von nicht synchron laufenden Drehstromnetzen. Eine künftig mögliche Netzstruktur besteht aus einem europaweiten HGÜ-Ring, einem unterlagerten 400-kV-DrehstromÜbertragungsnetz, dem die regionalen 110-kV-Transportnetze unterlagert sind. An diese wiederum werden die μ-Grids, die regionalen Transportnetze der Mittelspannung und der Verteilnetze (z.B. Stadtwerke) angekoppelt. Die bisherigen Netze werden in die neue Struktur voll integriert. Neu an der Struktur sind im Wesentlichen zwei Erweiterungen bzw. Umgestaltungen. Erstens der HGÜ-Ring, auf den die konventionellen Großkraftwerke und weitere große Windparks, z.B. offshore Parks einspeisen. Über dieses Netz wird der weiträumige Transport abgewickelt, siehe Abb.1. Und zweitens die μ-Grids, die einen Leistungsausgleich in den unteren Spannungsebenen erzielen sollen, siehe Abb.2. 5 • Übertragungsnetze Von den Übertragungsnetzen wird künftig ein weitaus höheres Maß an Transportkapazität, Spannungshaltung und effizienter Lastflusssteuerung erwartet. Die weiter steigende Komplexität und die teilweise gegensätzlichen Anforderungen sind nur durch eine vernetzte, systemweite Betrachtung des Gesamtsystems zu lösen. Die vielfältigen Wechselwirkungen machen intensive Systemforschungs- und Entwicklungsarbeiten notwendig. Schon 10 % Windkrafteinspeisung haben das europäische Verbundnetz an die Grenzen und auch darüber hinaus belastet. Das künftige Übertragungsnetz soll auf ca. 30 % und später auf 50 % regenerative Einspeisung ausgelegt werden. Der Einbezug großer Offshore-Windparks hat die Folge, dass sich europaweit verteilt Gebiete mit Flaute und mit hoher Einspeiseleistung abwechseln. Es ist abzusehen, dass diese künftigen Übertragungsaufgaben durch die bestehenden 400-kV Drehstromnetze nicht gelöst werden können. Ein über Leistungselektronik angekoppelter HGÜ-Ring kann den Austausch und damit einen wichtigen Beitrag zur Stabilisierung leisten. Der Lastfluss auf dem HGÜ-Ring wird kontrolliert und mittels Lastflusssteuerung effektiv beeinflusst. 35 08_hda_querschnitt_gesamt.indb 35 18.03.2008 16:08:04 Uhr QUERSCHNITT 22 HGÜ DST DST DST 400 kV DST Fahrplan L WKW ~ KWK L S L WKW L WKW μ-Grid 100-kV DST 20-kV DST Abbildung 3 • μ-Grid mit netzinternen Erzeugungen und Speichern und einem Lastmanagement, KWK: Kraftwerk mit Wärmeauskopplung, L: Lasten, WKW: Windkraftwerke, DST: Drehstromsystem, HGÜ: Hochspannungsgleichstrom-Übertragungsnetz 6 • HGÜ und FACTS als Netzkomponenten Besondere Netzbelastungen entstehen durch unvorhersehbare Verschiebungen der Lastflüsse, wie sie zum Beispiel durch Windstromeinspeisung oder durch Stromhandel hervorgerufen werden können. Diese können durch flexible Wechselstromübertragungs-Systeme (FACTS: Flexible Alternating Current Transmission Systems) oder auch die HGÜ (Hochspannungs-Gleichstrom-Übertragung) beherrscht werden. Die neuen, auf leistungselektronischen Bauelementen basierenden Technologien bieten ein großes Problemlösungspotential und Vorteile im Vergleich zu konventioneller Drehstromtechnik. Während die HGÜ-Verbindung dem Stromtransport über größere Entfernungen und der Kopplung asynchroner Netze dient, regeln FACTS die Netzspannung und den Lastfluss im Netz. Diese Techniken sind bereits verfügbar, aber in Deutschland noch nicht breit zur Anwendung gekommen. Die Gefahr möglicher Schwingungs- und Spannungsprobleme in Drehstromnetzen aufgrund der in den Netz-Randzonen konzentrierter Windkraft-Einspeisung kann durch die HGÜ besser beherrscht werden. H2-Speicher sind durch Elektrolyse und Brennstoffzelle eine denkbare Lösung, jedoch mit einem heutigen Wirkungsgrad von kaum mehr als 50 % nicht sehr wirtschaftlich. Druckluftspeicher, Schwungradspeicher und Supraleiter sind weitere Optionen, bei denen weitere Entwicklungsarbeiten anstehen. 8 • Erzeugung und Speicherbewirtschaftung Die bisher rund 90 % sehr zuverlässige Erzeugung aus thermischen Kraftwerken sind zu einem wesentlichen Teil und nach und nach durch regenerative Quellen zu ersetzen. Keinesfalls soll auf die Zuverlässigkeit thermischer Kraftwerke komplett verzichtet werden. Allerdings sollen die Großkraftwerke, deren Abwärme an den Standorten nicht nutzbar ist, mehr und mehr durch kleinere Einheiten in Kraftwärmekopplung ersetzt werden. Dadurch steigt der Wirkungsgrad von bisher 40 % auf über 80 %. Allerdings sind Investitionen in Fernwärmenetze notwendig. Eines ist völlig klar: Der durch regenerative Quellen substituierte Teil ist wetterabhängig nicht immer verfügbar, einzelne Windparks zeitweise überhaupt nicht. Es ist zu untersuchen, welche Verfügbarkeiten in der europäischen, großräumigen Durchmischung entstehen, 7 • μ-Grids wie genau diese prognostizierbar sind und welche Transporte μ-Grids sind Kern der künftigen Lösung. Sie sind virtuelle zu- sinnvoll sind. Es stellt sich auch die Frage, mit welchen lokalen sammengefasste Netzbereiche, meist Hoch- oder Mittelspan- Speichern eine Teilverfügbarkeit über 24 Stunden erreichbar nungs-Netze, die über eigene dezentrale Erzeugungen, Lasten ist. Schließlich ist die Frage zu klären, welche Überkapazität und Speicher verfügen. Ein typisches μ-Grid bildet das bishe- an regenerativer Erzeugung zu installieren ist, damit im Zurige Stadtnetz einer mittelgroßen Stadt. Ein Management des sammenhang mit Speichern im Erzeugungsmix eine hohe virtuellen Gebietes hat das Ziel, den Bezug oder die Abgabe Versorgungszuverlässigkeit gewährleistet ist. Prognose und der Leistung zum überlagerten Drehstromnetz DST nach Speicherbewirtschaftung sind hier neuartige Aufgaben. einem festen Fahrplan verlässlich zu gestalten. Je nach Gegebenheiten des Netzes mit (steuerbaren) Lasten, Erzeugungen, 9 • Lasten lokalen Speichern usw. kann der Fahrplan überwiegend spei- Die Lasten entstehen durch den Verbrauch der Haushalte, Insend oder verbrauchend gestaltet sein. Wichtig ist, dass der dustrie und durch weitere Stromabnehmer. Sie sind den virFahrplan verlässlich eingehalten wird, siehe Abb.3. Lokale tuellen Teilnetzen, den μ-Grids zugeordnet und müssen entSpeicher sollen unvorhergesehene Ausfälle netzinterner Er- sprechend der Kundenmischung quantifiziert werden. Der zeugungen und Lastspitzen ausgleichen. Lastverlauf ist genau zu prognostizieren und mit den ErzeuAn dieser Stelle ist noch viel Entwicklungsarbeit zu leisten: gungsverfügbarkeiten und Speicherreserven im μ-Grid abzuBatteriespeicher sind teuer, großvolumig und die Lebens- gleichen. Ziel ist ein definierter Fahrplanbezug bzw. die Abgabe dauer ist recht begrenzt. Ihr Wirkungsgrad liegt bei gut 80 %. zum Übertragungsnetz. Ein neuer Aspekt taucht auf: Welche 36 08_hda_querschnitt_gesamt.indb 36 18.03.2008 16:08:05 Uhr μ-Grids FACHBEREICH ELEKTROTECHNIK UND INFORMATIONSTECHNIK Effekte sind durch dynamische Tarife auf das Kundenverhalten zu erzielen? Bei Engpässen könnten höhere Tarife zur Zurückhaltung im Verbrauch anregen und bei Überschuss zum Gegenteil anreizen. Im Grunde ist es die Weiterentwicklung der „Nachtstromtarife“. Der momentan gültige Tarif könnte am häuslichen Display abgelesen werden. Voraussetzung für die dynamischen Tarife sind Informationsverbindungen an die Verbrauchserfassung zu den Endkunden und die digitale Verbrauchserfassung. Diese Aufgaben lassen auch die Wärmespeicherheizungen in neuem Licht erscheinen, denn sie sind in besonderer Weise geeignet, die Last in Zeiten hoher Einspeiseleistung auch abzunehmen. Auch die Produzenten von Haushaltsgeräten wie Waschmaschinen usw. sind gefordert, um beispielsweise Geräte mit zwei Startknöpfen „Sofortstart“ und „Start bei Billigtarif“ anzubieten. Schließlich sind bei den temperaturgeregelten Geräten noch Speicherpotentiale (Salzwasser-Phasenübergang) zur Temperaturhaltung erschließbar. 10 • Intelligenz durch Leittechnik Die „Intelligenz“ der künftigen Stromversorgungsstruktur wird in stark steigendem Maße durch den Einsatz von elektronischen sowie kommunikations- und leittechnischen Komponenten und Systemen geprägt sein. Generell gilt, dass die Evolution zum μ-Grid ein Paradigmenwechsel bedeutet: Aus der heutigen statischen Konzeption der Infrastruktur und einer Nutzung „wie gebaut“ hin zu einer dynamisch sich anpassenden „lebendigen“ Infrastruktur mit einem aktiven Management des Betriebes. Betriebsmanagement ist nur möglich, wenn ausreichend Daten aus dem Prozess in einer Leitstelle aktuell verfügbar sind. Bestehende Fernwirksysteme und die Netzleittechnik leisten bereits viel in dieser Richtung. Die neuen, privaten Dienste wie GPRS sind gut geeignet, fehlende Daten auch aus abgelegenen Stationen zu übertragen. Die wachsende Intelligenz der Netze wird in zwei Netzebenen stattfinden, in der lokalen Ebene der μ-Grids (Überwachung des Nahbereiches) und in der höchsten Ebene, der UCTE-Ebene (Überwachung des Fernbereiches). 11 • Nah- und Weitbereichsüberwachung in Leitstellen Die moderne Netzleittechnik wird künftig eine größere Anzahl an Informationen erfassen und für das Bedienpersonal zur schnellen Verarbeitung aufbereiten, als dies in den Systemen der Vergangenheit der Fall war. Leitstellen gibt es seit über 50 Jahren, in der Bundesrepublik etwa 800, die seit ca. 1970 auch computergestützt arbeiten. Noch heute gilt oft das Prinzip des „Information Hiding“ und die netzinternen Daten, die auch nach außen wirken können, werden kaum freiwillig weitergegeben. Selbst aus den unmittelbaren Partnernetzen werden die aktuellen Daten nicht automatisch zur Verfügung gestellt. Dabei bildet der gelegentliche telefonische Kontakt zwischen den Leitstellen bei ganz wichtigen Umschaltungen die Ausnahme, die gewissermaßen die Regel bestätigt. Das künftige Ziel muss eine automatisierte und europaweite Verfügbarkeit von relevanten Betriebsdaten sein. Dies ist zur Vermeidung von kritischen Betriebszuständen in der neuen Struktur notwendig, beispielsweise um die Speicherzustände bzw. Potentiale zur Lastführung systemweit zu erkennen und damit Engpässe frühzeitig zu minimieren. Die Nahbereichsüberwachung ist die Überwachung der μ-Grids selbst mit dem täglichen operativen Geschäft der Lastverteilung und Steuerung sowie die Überwachung der unmittelbaren Rand-Schaltanlagen und die Stati der unmittelbar benachbarten μ-Grids. Die Weitbereichsüberwachung (mit Schutz- und Leittechnik) dient einer sicheren und effizienten Netz- und Betriebsführung großer Verbundnetze national und europaweit. Um ein Frühwarnsystem gegen Energiemangel und Netz-Instabilitäten bereitzustellen, ist ein europaweiter online Datenaustausch und die Überwachung in einer zentralen Leitstelle, hier UCTE-Leitstelle genannt, erforderlich. Die Früherkennung eventueller System-Instabilitäten wegen Leistungsdefizite, Spannungsoder Frequenzabweichungen wird helfen, großflächige Stromausfälle zu vermeiden. Im Fehlerfall eines Subnetzes stellt die Fernbereichsüberwachung eine schnelle und genaue Information allen anderen Leitstellen zur Verfügung, die darauf systemstabilisierend reagieren können. Mit einem weiträumigen Informationsaustausch und zentraler Auswertung wird 37 08_hda_querschnitt_gesamt.indb 37 18.03.2008 16:08:06 Uhr QUERSCHNITT 22 Lasten (MW) 700 600 500 400 300 200 100 0 0 2 4 6 8 10 12 14 16 18 20 22 24 Zeit (h) Abbildung 4 • 24 h-Prognose eines μ-Grids, Lastengruppen ( ) Summe, ( ) Industrie, ( ) Haushalte, ( ) Heizungen ein stabilerer Systembetrieb auch während Störungen oder in Engpasssituationen ermöglicht. Die bestehenden Netzregelungen bleiben erhalten, sie werden insofern ertüchtigt, dass die Verteilfaktoren und Regeleingriffe dynamisch aus der Situation heraus berechnet und per Download an die jeweils teilnehmenden Regelkraftwerke gesendet werden. Zudem gibt es eine neue Regelkomponente, die Lasten. Diese Lasteingriffe werden parallel ausgeführt. Für unternehmerische Partikulärinteressen ist in der UCTELeitstelle allerdings kein Platz, daher ist diese Aufgabe durch eine neutrale Stelle zu bearbeiten sein. Sie steuert den Lastfluss auf der HGÜ und verwaltet die Regelenergie. 12 • Energieeffizienz auf der MS- und NS-Verteilnetzebene Die EU-Kommission hat im „Aktionsplan für Energieeffizienz“ im Frühjahr 2006 die Einschätzung getroffen, dass in der EU ein Energieeinsparungspotential von rund 20 Prozent existiert. Um dieses Potential bis zum Jahr 2020 zu realisieren, sieht der „Aktionsplan für Energieeffizienz“ der EU-Kommission unter anderem die Förderung des Ausbaus von dezentralen Kapazitäten zur gleichzeitigen Erzeugung von Strom, Wärme und Kälte unterhalb der 20 MW-Schwelle vor. Tatsache ist, dass thermische Kraftwerke zwischen 45 % bis 65 % der erzeugten Wärme ungenutzt in die Umwelt abgeben, die Kraft-WärmeTechnik ermöglicht Wirkungsgrade um 90 %. Heute werden nur ca. 13 % des verbrauchten Stroms in einem kombinierten Kraft-Wärme-Prozess (KWK) erzeugt. Die Förderung einer mehr verbrauchsnahen Erzeugung mit dieser kombinierten KWK-Technologie kann in besonderer Weise helfen, die C02Thematik zu lösen. Leider ist die KWK-Förderung ausgelaufen und die Novellierung steht noch aus. 13 • Dezentrales Energiemanagement Ein dezentrales Energiemanagement bezieht im Rahmen eines μ-Grids (virtuellen Bilanzkreises) typische dezentrale Erzeugungsanlagen wie Kraft-Wärme-Anlagen (erneuerbar /konventionell) im Grundlastbetrieb ebenso ein wie fluktuierende Erzeugungstechnologien (Wind /Photovoltaik) und lokale, dezentrale Speicher ein. Da Elektrizität nicht im Netz gespeichert werden kann, kommen Speicher in Form von Wasser, Druckluft, Batterie, Wärme, Kälte oder H2-Speicher in Frage. Der externe Strom-Bezug oder /und die Lieferung nach extern aus dem Bilanzkreis des μ-Grids wird durch Fahrpläne festgelegt. Die Auswertung aller Parameter einschließlich der beeinflussbaren und nicht beeinflussbaren Last führt zur Erstellung eines Fahrplans (Transfer-Profils) zum umgebenden Netz. Die „Intelligenz“ des dezentralen Energiemanagementsystems steckt in der leittechnischen Beherrschung der Komplexität aus unterschiedlich beeinflussbaren Erzeugungsanlagen und dem optimierten, auch teilweise steuerbaren Lastbedarf. Das Ziel ist die Vermeidung von ineffizienten Last- und Erzeugungsspitzen durch internen Ausgleich im μ-Grid und damit die Vermeidung der Vorhaltung entsprechend großer Reserveleistungen im Gesamtsystem. In Abb. 6 ist der Speicherinhalt eines μ-Grids über 24 Stunden des Tages simuliert, wenn der Lastverlauf (Abb. 4) und der Einspeiseverlauf (Abb. 5) besteht. Wenn der lokale Speicher in Gefahr ist leer zu werden, können mit operativen Eingriffen innerhalb des μ-Grids Lasten abgeschaltet oder über die Spannung geführt werden. Rechtzeitig kann über die Prognosen erkannt werden, ob der im Beispiel konstant angenommene Fahrplan verlassen wird und Reserveleistung erforderlich ist. Das Beispiel zeigt allerdings, dass mit hier ca. 30 % Anteil regenerativer Energie ein relativ großer Speicher erforderlich ist, wenn ein konstanter Fahrplanwert zum Verbund eingehalten werden soll. Der Speicher vermindert sich deutlich für eine Bezugskurve, die dem prognostizierten Leistungsdefizit der internen Erzeugungen Rechnung trägt. 14 • Zusammenfassung Die heutige Struktur der Stromversorgung in Deutschland und Europa ist den kommenden Anforderungen nicht mehr gewachsen. Zur Realisierung der Energieeffizienzziele der Europäischen Union (20 % oder mehr Reduzierung der CO2-Emissionen bis 2020) und des umweltpolitisch motivierten Ausbaus der erneuerbaren Energien (20 % oder mehr Anteil an der Stromversorgung bis zum Jahr 2020) machen einen Wechsel 38 08_hda_querschnitt_gesamt.indb 38 18.03.2008 16:08:06 Uhr μ-Grids FACHBEREICH ELEKTROTECHNIK UND INFORMATIONSTECHNIK Speicher (MW) Erzeugersumme (MW) 700 700 600 600 500 500 400 400 300 300 200 200 100 100 0 0 0 2 4 6 8 10 12 14 16 18 20 22 24 0 2 4 6 8 10 12 14 16 18 20 22 24 Zeit (h) Zeit (h) Abbildung 5 • 24 h- Prognose eines μ-Grids, Erzeugungsgruppen ( ) Summe, ( ) Windkraft, ( ) Photovoltaik, ( ) Biogas, ( ) Bezug vom Verbund Abbildung 6 • Speicherinhalt vom passiven zum aktiven, intelligenten Stromversorgungsnetz notwendig. Dabei gilt es, die bestehenden Netze im Sinne der μ-Grids zu transformieren und zu ergänzen sowie ein intelligentes Regelungssystem einzusetzen, das einen möglichst energieeffizienten Ausgleich zwischen stark schwankenden Lastanforderungen und ebenfalls fluktuierenden Erzeugungskapazitäten erreicht. Stadtwerke sind dafür prinzipiell gut geeignet. Hier ist verstärkt auch der Einsatz von kommunikations-, leit- und regelungstechnischen Komponenten erforderlich. Für den künftig zunehmenden Transport großer elektrischer Leistungen über lange Strecken und für die Ausweitung lastferner Erzeugungskapazitäten werden leistungselektronische Komponenten zur schnellen Steuerung des Lastflusses (FACTS) und eine europaweite HGÜ-Schiene zur Erhöhung von Übertragungskapazitäten und zur Verbesserung der Stabilität benötigt. Zur Früherkennung möglicher Instabilitäten wegen Spannungs-, Frequenz- oder Überlastproblemen ist eine Weitbereichsüberwachung im komplexen Stromverbundnetz (UCTE) hilfreich, um Netzstörungen zu erkennen und großflächige Ausfälle zu vermeiden, also eine UCTE-Leitstelle, die ihre Arbeit für die Netzstabilisierung auf den offenen Datenaustausch zwischen den einzelnen Netzgebieten abstützt. Die Hochschule Darmstadt kooperiert mit dem regionalen Stromversorger und Leitsystemherstellern in mehreren Projekten, beispielsweise für die Entwicklung von Planungs- und Verifikationswerkzeugen zur sicheren Strukturierung der künftigen Netze und zur Dimensionierung der Netzkomponenten. Parallel dazu wird der Netz-Trainingssimulator der Hochschule Darmstadt für Stromnetze auf die künftigen Aufgaben vorbereitet [6-9]. Diese Ergebnisse werden helfen, dass die Transformation der Stromversorgung in Hinblick auf eine sichere und umweltfreundliche Energieversorgung gelingt. Literaturhinweise • 1 http://www.bdew.de/bdew.nsf/ID/DE_Home 2 http://www.bundesnetzagentur.de/media/archive/12385.pdf 3 Dieter Metz u.a., „Netzbetrieb im liberalisierten Markt – Eine Markstudie“, FH-Darmstadt, 2001 4 Dieter Metz and Rolf Schnell, „Dynamisches Training im Netzbetrieb mit Stategieoptimierungen für den liberalisierten Strommarkt“, 7. Symposium „Energieinnovation in Europa“, OEV, 2002 Graz, ISBN 3-85133-027-7 5 http://www.fbe.fh-darmstadt.de/forschung/netztrain/ default.htm, „Ein dynamischer Netz-Trainingssimulator für den Betrieb elektrischer Energienetze“, D. Metz und M. Anthes 6 J. Schlabbach und D. Metz, „Netzsystemtechnik“, 2005 Buch mit CD erschienen im VDE-Verlag ISBN 978-3-8007-2821-3 und -4 7 Netzleittechnik : www.hereschwerke.de 8 Aus- und Weiterbildung im VDEW, www.age-seminare.de 9 Aus- und Weiterbildung für elektrische Netze und Netztraining: www.seminare-elektrische-anlagen.de Kurzbiografien • Prof. Dr.-Ing. Dieter Metz, VDE, Jahrgang 1948. Studium der Elektrotechnik an der Technischen Universität in Darmstadt, Promotion zum Dr.-Ing. an der RWTH Aachen 1979. Industrietätigkeit auf den Gebieten Softwareentwicklung, Netzleittechnik und Netztrainingssysteme. Seit 1986 Professor an der Hochschule Darmstadt im Fachbereich Elektrotechnik und Informationstechnik. Leiter des h_da Netztrainingszentrums, Projektleiter nationaler und internationaler Entwicklungskooperationen. M.Sc., Dipl.-Ing.(FH) Thorsten Fiedler, Jahrgang 1980, Nachwuchsautor. Studium der Elektrotechnik im Diplom- und Masterstudiengang der Hochschule Darmstadt. Seit 2007 Doktorand am Fachbereich Energietechnik der Universität Craiova (Rumänien) in Kooperation mit der Hochschule Darmstadt. Freier Mitarbeiter der OHP Automation Systems GmbH Rodgau, befasst mit der Weiterentwicklung von Leitsystemen. 39 08_hda_querschnitt_gesamt.indb 39 18.03.2008 16:08:07 Uhr QUERSCHNITT 22 Abbildung 12 •• Auswahl Das jordanisch-syrische von Gimmicks aus Hochland verschiedenen mit der Kinderzeitschriften antiken Fernwasserleitung. im Winter 2006 /2007 (Siehe auch Seite 48 und 51) 40 08_hda_querschnitt_gesamt.indb 40 18.03.2008 16:08:08 Uhr Gimme the Gimmicks FACHBEREICH GESELLSCHAFTSWISSENSCHAFTEN UND SOZIALE ARBEIT GIMME THE GIMMICKS WERBUNG IN UND FÜR KINDERUND JUGENDZEITSCHRIFTEN Autoren • Dipl.-Soz. Bettina von Römer und Prof. Dr. Bernd Steffensen Kinder und Jugendliche stellen für Hersteller und Handel in verschiedenen Produktsparten eine kaufkräftige und wichtige Klientel dar: Kaufkräftig, da die Gruppe der 6- bis 13-Jährigen jährlich über ein Finanzvolumen von ca. 5,9 Mrd. € verfügen kann (Egmont Ehapa Verlag 2006). Wichtig, weil Untersuchungen zeigen, dass die meisten Jugendlichen bis zum Alter von 17 Jahren ein ausgeprägtes Markenbewusstsein entwickelt und „ihre Marke“ bereits gefunden haben (BRAVO Faktor Jugend 8 2005). Angesichts dieser zwei Aspekte wird verständlich, warum gerade Kinder und Jugendliche Adressaten vielfältiger Werbebotschaften sind. 1 • Das Vorhaben In diesem Beitrag berichten wir über eine Studie, die aus Mitteln der Sonderforschungsgruppe Institutionenanalyse (sofia) finanziert wurde. sofia ist organisatorisch im Studienbereich Sozial- und Kulturwissenschaften am Fachbereich Gesellschaftswissenschaften und Soziale Arbeit angesiedelt. In dem Projekt wurden 109 Ausgaben von 19 verschiedenen Kinderund Jugendzeitschriften, die im Zeitraum November 2006 bis März 2007 erschienen sind, in zwei Hinsichten analysiert: 1 • Umfang und Intensität der Werbemaßnahmen in den einzelnen Heften. 2 • Zahl und Art der Werbeverstöße, die im Werbeaufkommen festgestellt werden konnten. Bei der nun vorliegenden Studie (von Römer /Steffensen 2007) handelt es sich um eine Follow-up-Studie zu zwei Vorgängern, die in den Jahren 1999 und 2002 von Cornelia Becker (ebenfalls aus sofia-Mitteln finanziert) durchgeführt wurden. Wurde in den beiden Vorgängerstudien das Zusammenspiel von Werbemaßnahmen in Kinder- und Jugendzeitschriften mit dem flankierenden Werbeangebot auf diversen Fernsehkanälen betrachtet, so liegt in der nun vorliegenden Analyse der Fokus auf der Kombination von Werbung in Zeitschriften mit Werbemaßnahmen im Internet. Im Anschluss an eine holzschnittartige Darstellung der auf Kinder und Jugendliche bezogenen Werbemaßnahmen in den Medien Fernsehen, Kinderzeitschriften und Internet, werden die wichtigsten Ergebnisse der Zeitschriftenanalyse dargestellt. Abschließend stellen wir einige weitere Überlegungen vor, die einerseits Veränderungen im Konsumverhalten von Kindern und Jugendlichen, andererseits die sich ändernde Form der Einflussnahme durch Werbung auf die Gruppe der jungen Konsumenten verdeutlichen. 2 • Fernsehwerbung mit der Zielgruppe Kinder Grundsätzlich hat sich in der vergangenen Dekade der Trend verstärkt und stabilisiert, dass bereits Vorschulkinder gezielt in den werbenden Blick der Produkthersteller genommen werden. Insbesondere die Hersteller von Kinderprodukten in41 08_hda_querschnitt_gesamt.indb 41 18.03.2008 16:08:14 Uhr QUERSCHNITT 22 itiieren in Zeitschriften, Fernsehprogrammen und mit Internetauftritten in den letzten Jahren eine sich immer stärker verzahnende Medienflut, die die Erlebnis- und Spielbedürfnisse von Kindern mit vielfältigen, sich gegenseitig intensivierenden Anreizen anspricht. Ein kurzer Blick auf die Sehgewohnheiten von Kindern und Jugendlichen zeigt für die letzten Jahre, dass sich kaum Veränderungen in Bezug auf die zeitliche Dauer des Fernsehkonsums ergeben haben (vgl. Feierabend /Klingler 2006: 139). Auffallend ist jedoch, dass ein großer Anteil der jüngeren Kinder vor allem jene Sender frequentiert, die sich durch einen hohen Werbeanteil in ihrem Programmangebot auszeichnen. Heffler und Möbus (2006: 319) weisen für Super RTL im Jahr 2005 eine Werbezeit von 125.370 Minuten aus, was einem Programmanteil von 23,9 % entspricht. RTL II liegt bei einem Werbeanteil von knapp 21 %, RTL, SAT1 und ProSieben liegen zwischen 14,5 % und 15 % (Angaben aus der Quelle berechnet). Studien zeigen zudem immer wieder, dass Kinder gerne Fernsehwerbung ansehen, da die enthaltenen altersspezifisch aufgebauten kurzen Geschichten für sie einen hohen Unterhaltungswert haben und die tendenziell noch kurze Aufmerksamkeitsspanne nicht zu stark strapazieren. 3 • Werbung in Kinderzeitschriften Nach Angaben des Verbandes Deutscher Zeitschriftenverleger war für die Printmedien das Jahr 2006 sehr erfolgreich, da die Anzeigenumsätze insgesamt um 3,6 % auf knapp 1.856 Mrd. € gestiegen sind (VDZ 2007). Hieraus ergibt sich für 2005 ein Netto-Werbeumsatz im Zeitschriftenbereich von etwa 1,79 Mrd. €, von denen laut Heffler /Möbus (2006: 318) etwa 70 Mio. € (Brutto) auf Jugendzeitschriften entfallen. Eine Vorstellung davon, welche Kosten für Werbeanzeigen in den verschiedenen Publikationsmedien für Kinder und Jugendliche entstehen, vermitteln die „Mediendaten 2007“ der Egmont Ehapa Verlag GmbH. Bei einer wöchentlichen Auflage von ca. 375.000 Exemplaren, kostet eine ganzseitige Werbeanzeige im Micky Maus Magazin gemäß Preisliste 35 (Stand: 01.01.2007) 14.900,- €. In Benjamin Blümchen (Auflage knapp 70.000 Exemplare) kostet die ganzseitige Anzeige gemäß Preisliste 11 (Stand: 01.01.2007) 5.400,- € (Egmont Ehapa Verlag 2007). Betrachtet man die Werbeanzeigen in den 109 Kinderzeitschriften (siehe Tabelle 1), so ist als erstes festzustellen, dass die Werbeintensität über alle Zeitschriften betrachtet im Vergleich zu den Auswertungen von Becker (1999 und 2002) nicht zugenommen hat. Bei dem Vergleich ist allerdings zu berücksichtigen, dass sich der Untersuchungszeitraum von Juli bis Anteil der Werbung in % am Heftumfang Titel 1998 2001 2006 /07 Barbie 18 27 28 Benjamin Blümchen 22 27 20 Bibi Blocksberg 19 25 15 --- --- 16 10 24 15 8 19 19 Bussi Bär 34 24 22 Die Maus 20 20 18 Die Schlümpfe Schlumpf Mag 24 17 10 Disney Prinzessin --- --- 24 Fix & Foxi --- --- 25 Geolino --- --- 18 Lillebi --- --- 13 Micky Maus 22 20 23 Mosaik 12 26 20 Philipp 7 13 8 Prinzessin Lillifee --- --- 18 Wendy --- --- 16 9 32 21 Bob der Baumeister Biene Maja Bummi Winnie Puuh Tabelle 1 • Relative Häufigkeit von Werbung in Kinderzeitschriften (Daten für 1998 und 2001 aus Becker 2002: 8) 42 08_hda_querschnitt_gesamt.indb 42 18.03.2008 16:08:15 Uhr Gimme the Gimmicks FACHBEREICH GESELLSCHAFTSWISSENSCHAFTEN UND SOZIALE ARBEIT Anzahl Werbeanzeigen Produktgruppe 1 Spielsachen und Sportartikel in % 81 in % ohne 12/13 (n=522) 8,6 15,5 2 Süßigkeiten 31 3,3 5,9 3 Essen und Trinken 60 6,4 11,5 4 Kleidung und Accessoires 24 2,5 4,6 5 Merchandising-Produkte 31 3,3 5,9 6 PC- und Konsolenspiele 58 6,1 11,1 7 Fernsehen, DVD, CD, MC 99 10,5 19,0 8 Kino, Veranstaltungen 25 2,6 4,8 9 Ferien /Urlaub /Reisen 55 5,8 10,5 10 Schulbedarf 9 0,9 1,7 49 5,2 9,4 12 Zeitschriften /Bücher (Eigenwerbung des Verlages: nächstes Heft, Abonnement etc.) 320 33,9 13 Gewinnspiele (Preise zumeist von verschiedenen Produktanbietern) 103 10,9 945 100,0 11 Zeitschriften /Bücher (andere Anbieter) Summe 99,9 Tabelle 2 • Beworbene Produktgruppen Dezember in den Untersuchungen von Becker auf die Zeit November bis März in der vorliegenden Untersuchung verschoben hat. Insgesamt schlägt sich diese Verschiebung in einem durchschnittlich etwas geringeren Werbevolumen nieder. Auch für andere Werbeträger zeigen Heffler und Möbus (2006: 318), dass nach einer sehr werbeintensiven Phase von September bis Dezember die Zeit von Januar bis März durch anfänglich niedrige aber konstant steigende monatliche Umsätze gekennzeichnet ist. Die Monate nach Ostern markieren bis in die Zeit Juli /August ein zweites, weniger stark ausgeprägtes „Jahrestief“. Insgesamt betrachtet lässt sich in den Analyseergebnissen kein klarer Trend erkennen. Starke Wechsel im Anzeigenvolumen der verschiedenen Zeitschriftenausgaben resultieren häufig weniger aus einem deutlichen Auf und Ab des Werbevolumens im Jahresverlauf als vielmehr aus der Tatsache, dass einzelne Werbemaßnahmen in einzelnen Heften umfänglich aufgemacht sind. Solche Aktionen schlagen sich angesichts der eher kleinen Heftumfänge von Kinder- und Jugendzeitschriften schnell in vergleichsweise großen Werbeanteilen an einzelnen Ausgaben nieder. Insgesamt fanden sich in den 109 Zeitschriften 945 Werbeanzeigen, wobei es in manchen Fällen schwierig zu entscheiden ist, ob es sich noch um einen redaktionellen Beitrag oder schon um eine Werbeanzeige handelt. Dies bezieht sich vor allem auf Informationen zu Medienangeboten wie (Hör-) Bücher oder auch Computerspiele, die einerseits vorgestellt, zugleich aber auch getestet und mit Preisangaben versehen beworben werden. Hier fehlt es vielfach an einer klaren und eindeutigen Trennung zwischen redaktionellen und werbenden Anteilen. Zu bedenken ist dabei, dass die Probleme, die sich bei der Analyse der Zeitschriften für die erwachsenen Bearbeiter der Studie ergaben, für Kinder im Kindergarten- oder Grundschulalter dazu führen, dass für sie Werbung als solche kaum oder gar nicht zu erkennen ist. In Tabelle 2 ist zusammengestellt, für welche Produktgruppen geworben wurde. Bemerkenswert ist, dass ein Drittel der Anzeigen Eigenwerbung darstellt, mit denen die nächste Ausgabe der vorliegenden Kinderzeitschrift, ein Abonnement oder ein anderes Angebot des Verlages beworben wird. Betrachtet man die letzte Spalte der Tabelle so fallen vor allem die Werbungen für Fernsehsendungen auf, die an der Produktgruppe 43 08_hda_querschnitt_gesamt.indb 43 18.03.2008 16:08:16 Uhr QUERSCHNITT 22 7 den weitaus größten Anteil haben. Auch hierin ist ein Indiz für die zunehmende Verknüpfung der verschiedenen Medien zu sehen, die immer stärker wechselseitig auf sich verweisen und so einen Werbeverbund mit sich gegenseitig verstärkenden Werbebotschaften erzeugen. 4 • Werbung für Kinderprodukte im Internet In etwa einem Drittel der Werbeanzeigen in den analysierten Kinder- und Jugendzeitschriften finden sich mehr oder weniger offensichtliche Verweise auf die Internetseiten der Anbieter. Auffallend beim Aufsuchen dieser Seiten ist, dass in vielen Fällen die Anbieter von Informationen und Werbung, zusätzlich einen Onlineshop betreiben und ein zum Teil umfangreiches Angebot an Computerspielen offerieren. Dies gilt einerseits besonders für jene Firmen, die gezielt „Kinderprodukte“ anbieten (etwa www.fruchttiger.de, www.ueberraschungseier. de oder www.ehrmann.de, etc), andererseits für Werbende, die sich auf Unterhaltungsangebote für Kinder und Jugendliche spezialisiert haben (vgl. z.B. www.jetixTV.de, www.disney channel.de, www.toggo.de, etc.). Je ein Beispiel ist als Screenshot eingefügt. In vielen Fällen erfordern Club-Mitgliedschaften eine Registrierung, die den werbenden Firmen einen zusätzlichen Kanal für Online-Angebote und Werbebotschaften eröffnet. So besteht die Möglichkeit sich in High Score-Listen eintragen zu können, was bei Kindern ausgesprochen beliebt ist, erfüllt es doch den Wunsch, sich mit anderen kompetitiv zu messen. Zugleich fördert es die Bereitschaft, die jeweilige Internetseite erneut aufzurufen, um die eigene Bestmarke nach oben zu treiben und einige Plätze im Ranking gut zu machen. Gerade in der engen Verknüpfung zwischen der Werbung im Printmedium und der Möglichkeit, auf den dazu gehörenden Internetseiten aus einem zum Teil umfangreichen Angebot an Computerspielen auswählen zu können, lässt sich ein Ausnutzen der Spielleidenschaft von Kindern erkennen. Es ist gerade diese Spielleidenschaft, die Kinder zum Besuch der Internetangebote von Produktanbietern motiviert. Beim Spiel kommen immer auch die beworbenen Produkte in den Blick. Vorteilhaft für die Werbeintention und damit für den Verkaufserfolg des Produkts ist, dass das Kind über die Spieloptionen ein positives Bild und einen dementsprechenden Erfahrungshorizont assoziiert. Dieser Ansatz gewinnt angesichts gesättigter Märkte, auf denen sich die einzelnen Produkte untereinander kaum noch gegeneinander abheben, an Bedeutung, da es vielfach nur aufgrund des Zusatznutzens gelingt, ein Interesse für Abbildung 2 • Screenshot aus www.fruchttiger.de (Ausschnitt; 13. 01. 2008) Abbildung 3 • Screenshot aus www.toggolino.de (Ausschnitt; 29. 05. 2007) das Produkt zu gewinnen (vgl. Kroeber-Riel /Esch 2004: 24). Bei den noch heranwachsenden Konsumenten kommt Werbung eine besondere Bedeutung zu. So zeigt die inzwischen zum achten Mal durchgeführte Studie „BRAVO Faktor Jugend“, dass sich das Markenbewusstsein in jungen Jahren herausbildet. Im Produktbereich Süßigkeiten, ein Feld auf dem sich viele Kinder bereits sehr früh finanziell frei und selbstständig bewegen können, haben sich im Alter von 12 Jahren schon bei fast 60 % der für die Studie befragten Kinder und Jugendlichen eindeutige Markenpräferenzen herausgebildet. Mit einer zeitlichen Verschiebung von vier bis fünf Jahren gilt dies auch für 44 08_hda_querschnitt_gesamt.indb 44 18.03.2008 16:08:16 Uhr Gimme the Gimmicks FACHBEREICH GESELLSCHAFTSWISSENSCHAFTEN UND SOZIALE ARBEIT % 100 90 80 70 60 50 40 30 20 10 0 10 11 12 13 14 15 16 17 18 19 20 21 22 Jahre Abbildung 4 • ( ) Süßigkeiten, ( ) Mode, ( ) Deo, ( ) Gesichtspflege /-reinigung, ( ) Kosmetik, Make-up, ( ) Haarstyling, ( ) Handy, Lesebeispiel: Im Bereich Mode haben 81 % der Befragten mit 17 Jahren bereits ihre heutigen Marken verwendet. Alle Befragten, n = 524 / Kumulierte Angaben in Prozent (100 % = alle heutigen Verwender der Marke), *nur Frauen viele andere Produktbereiche, die für junge Menschen von Bedeutung sind. Abbildung 4 gibt dieses zentrale Ergebnis der Studie „BRAVO Faktor Jugend 8“ deutlich wieder. Die grundlegende Aussage der von Zeitschriftenverlagen in Auftrag gegebenen Studie heißt demzufolge dann auch: • „Die wichtigste Phase ist dabei das Alter zwischen 12 und 17 Jahren – hier verzeichnen alle Marken die stärksten Zugewinne. • Marken müssen also in diesem Alter präsent sein, um sich zu bewähren.“ (BRAVO Faktor Jugend 8 2005: 25) den Vorgängerstudien halten wir es auch bei dieser dritten Auflage für angebracht, keinen Unterschied zwischen Hörfunkund Fernsehwerbung einerseits sowie Zeitschriftenwerbung andererseits zu machen. Entsprechende Differenzierungen und Abgrenzung werden auch deshalb zunehmend weniger plausibel, da die Werbenden – wie ausgeführt – in ihren Werbestrategien verstärkt auf die Verzahnung verschiedener Medien setzen. Fernseh-, Print- und Onlinewerbung nehmen wechselseitig aufeinander Bezug und verstärken sich gegenseitig. Insofern fällt es schwer, ähnlichen Werbebotschaften mit vergleichbarem Inhalt in den einzelnen Medien ganz unter5 • Werbung und Werberegeln schiedliche Wirkungen zuzurechnen. Auf der Homepage des Deutschen Werberates finden sich un- Für die Auswertung der Zeitschriftenwerbung ist zu beachter anderem die noch heute gültigen „Verhaltensregeln des ten, dass die Regeln des Deutschen Werberates allgemein Deutschen Werberats für die Werbung mit und vor Kindern und interpretationsbedürftig formuliert sind. Dies macht in in Hörfunk und Fernsehen“ aus dem Jahr 1998. Wie schon bei vielen Fällen eine klare Entscheidung schwierig, ob eine der 45 08_hda_querschnitt_gesamt.indb 45 18.03.2008 16:08:19 Uhr QUERSCHNITT 22 Werberegel Kurzfassung des Inhalts der Regel Nr. 1 Kein Vortrag von Kindern über besondere Vorteile und Eigenarten von Produkten, der nicht den natürlichen Lebensäußerungen von Kindern entspricht Nr. 2 Keine direkte Aufforderung zu Kauf oder Konsum Nr. 3 Keine direkten Aufforderungen, andere zu veranlassen, ein Produkt zu kaufen Nr. 4 Kein missbräuchliches Ausnutzen des besonderen Vertrauens, welches Kinder bestimmten Personen entgegenzubringen pflegen Nr. 5 Aleatorische Werbemittel (z. B. Gratisverlosungen, Preisausschreiben und -rätsel u. ä.) sollen Kinder nicht irreführen, nicht durch übermäßige Vorteile anlocken, nicht ihre Spielleidenschaft ausnutzen und nicht anreißerisch belästigen Nr. 6 Strafbares oder sonstiges Fehlverhalten, durch das Personen gefährdet werden können, soll nicht als nachahmenswert erscheinen Tabelle 3 • Werberegeln (vgl. Deutscher Werberat 1998) Werberegeln verletzt wurde oder (noch) nicht. Vielfach gibt es eindeutige Fälle, in vielen anderen Fällen ist es jedoch auch Auslegungssache, ob eine Aufforderung gemäß Werberegel Nr. 2 direkt oder doch indirekt erfolgt: Muss die Phrase „Kauf dir“ oder „Hol dir“ in einer Anzeige enthalten sein, damit von einer direkten Aufforderung zu Kauf oder Konsum gesprochen werden kann? Oder reicht es, wenn die Werbung für die nächste Zeitschriftenausgabe mit „Deine neue …“ überschrieben ist? Wir sind bei einer bewusst engen Auslegung auf insgesamt 543 Werbeanzeigen (57,5 %) gekommen, in denen gegen mindestens eine der sechs Werberegel verstoßen wurde. In 105 Fällen wurde bei einer Anzeige ein Verstoß gegen zwei Werberegeln festgestellt, was 11,1 % der Anzeigen entspricht, in 2 Fällen wurden unseres Erachtens sogar drei Werberegeln missachtet. Insgesamt wurden 652 Verstöße gezählt (siehe Tab. 4). Im Folgenden werden die Befunde zu den Werberegeln 2 und 5 detaillierter dargestellt, die Verstöße gegen die anderen Werberegeln sind aufgrund ihrer geringen Zahl zu vernachlässigen. Betrachtet man zudem die 105 Fälle von „Doppelverstößen“ so handelt es sich meist um eine Kombination von Verstößen gegen diese beiden Werberegeln. Werberegel 2: Kinder sollen nicht direkt zu Kauf oder Konsum aufgefordert werden. Werberegel 2 wird in 192 Fällen (20,3 % aller Anzeigen und 29,4 % aller Verstöße) missachtet. Diese Form des Verstoßes findet sich in vielen Werbemaßnahmen, die (wie in fast jedem der untersuchten Hefte zu finden) auf die Inhalte und das Erscheinungsdatum der nachfolgenden Ausgabe verweisen. So findet sich in den Anzeigen für das Folgeheft der Prinzessin Lillifee jeweils die Formulierung „Deine nächste Ausgabe vom Prinzessin Lillifee Magazin“ (Prinzessin Lillifee 1 /2007: 36; 2 /2007: 34; 4 /2007: 36). Ein typischer Fall für den Verstoß gegen die Werberegel 2 findet sich in der Werbung der Firma Simba für das Produkt „Arielles Bubble Palace“ (Abbildung 5). Die benutzte Formulierung „Hol Dir … nach Hause“, enthält eine klar und deutlich ausgesprochene Kaufaufforderung. Dies ist wohl einer der eindeutigsten Fälle für einen Verstoß, der sich aber in ähnlicher Form in vielen weiteren Anzeigen findet. Etwa in der Kampagne für Kick-O-Mania der Firma Revell, Werberegel Nr. Anzahl Anteil Verstöße an 945 Anzeigen in % in % Werberegel 1 8 1,2 0,8 Werberegel 2 192 29,4 20,3 Werberegel 3 7 1,1 0,7 Werberegel 4 7 1,1 0,7 Werberegel 5 435 66,7 46,0 3 0,5 0,3 652 100,0 Werberegel 6 Summe Werbeverstöße Tabelle 4 • Verstöße gegen die Werberegeln 46 08_hda_querschnitt_gesamt.indb 46 18.03.2008 16:08:20 Uhr Gimme the Gimmicks FACHBEREICH GESELLSCHAFTSWISSENSCHAFTEN UND SOZIALE ARBEIT Abbildung 5 • Ausschnitt aus einer Anzeige der Firma Simba für Arielles Bubble Palace (aus: Bibi Blocksberg 12 /2006: 35) die für das „Duell der Stars“ wirbt: Zwei Jungen sitzen sich mit ernsten Minen gegenüber und halten die Nachbildungen von zwei Fußballstars in der Hand. Links von ihnen sind vier andere Fußballstars als Puppen abgebildet, rechts in drei Bildern die Funktionen der Puppen dargestellt. Auch in dieser Anzeige findet sich mit „Holt euch eure Fußballstars …“ eine unverblümte direkte Aufforderung zum Kauf. Werberegel 5: Aleatorische Werbemittel Auffallend ist, dass in 46 % der Werbeanzeigen (insgesamt 435 Fälle, die 66,7 % aller Verstöße ausmachen) Gewinnspiele in kleinerem und größerem Umfang eingefügt sind. Ein typisches Beispiel für Werbung mit Mitmachaktionen findet sich in der nachfolgenden Anzeige (Abb. 6). Über die Mitmachgelegenheit wird der Blick der Kinder an die Anzeige gefesselt, die ansonsten vermutlich eher oberflächlich überflogen wird. Erwachsene – für Kinder liegen die Vergleichszahlen nicht vor – brauchen zur Erfassung einer bildlastigen Werbeanzeige gerade einmal 1,5 Sekunden (Kroeber-Riel /Esch 2004). In dieser Zeit können wir etwa 10-15 Worte Text aufnehmen. Die kurze Aufmerksamkeitsspanne impliziert, dass das Produkt gar nicht richtig zur Kenntnis genommen wird. Die Möglichkeit ein Rätsel oder Quiz zu lösen, verlängert die Aufmerksamkeitsspanne deutlich und vermittelt im zumeist sichergestellten Erfolgsfall ein positives Gefühl. Diese kleinen Elemente dürften zugleich den Effekt haben, dass auch die elterlichen Mitleser einen Blick auf die Rate- oder Suchspiele werfen und damit ebenfalls länger auf der entsprechenden Seite verweilen, als sie dies den Studien zur Rezeption von Werbung zu Folge im Normalfall tun würden. Abbildung 6 • Anzeige für „Fruchttiger“ der Firma Eckes 47 08_hda_querschnitt_gesamt.indb 47 18.03.2008 16:08:20 Uhr QUERSCHNITT 22 Aus der KidsVerbraucherAnalyse (2006: 44), die federführend vom Egmont Ehapa Verlag in Auftrag gegeben wird und sich an die Anzeigenkunden der beteiligten Verlage wendet, geht hervor, dass Kinder Werbung mit Rätseln und Gewinnspielen mögen. 71 % der befragten Kinder und Jugendlichen geben an, dass sie es gut finden, wenn Kinder mitmachen und gewinnen können, 48 % mögen Werbung mit Quizfragen und Rätseln. Insofern hat die Gestaltung der entsprechenden Werbemaßnahmen Methode, da die Spielleidenschaft angesprochen und genutzt werden kann, um die Aufmerksamkeit der jungen Konsumenten stärker zu binden. Gerade für dieses Mittel zur Bindung von Aufmerksamkeit sind die Medien Zeitschrift und Internet in besonderer Weise geeignet. Anders als im Fernsehen ist es möglich, länger zu verweilen bzw. zu den Spielangeboten jederzeit wieder zurückzukommen. Die Spielgelegenheiten sind gewissermaßen das Pendant zu den kurzen und amüsanten Geschichten, die im Fernsehen die Aufmerksamkeit junger Konsumenten binden, die im Printmedium schwieriger und nur ungelenk bildlich angeboten werden können. Sie sind besonders geeignet, um Kinder zu fesseln und auf einfache Art und Weise ein Erlebnismarketing für die jungen Kunden zu initiieren. 6 • Kinder, Konsum und Werbung Das Thema Kinder, Werbung und Konsum hat in den letzten Jahren in der Literatur eine zunehmende Aufwertung erfahren. Dieses liegt zu einem großen Teil daran, dass Kindheit heute von Kindern anders gelebt und erfahren wird. So wird in der Literatur das Konzept der aktiven Kindheit formuliert, das vor allem auf die vergrößerten Autonomiespielräume abstellt, die sich bereits bei kleineren Kindern zeigen. Diese stärkere Selbstständigkeit verändert nicht nur die Beziehung zu den Eltern, sie tangiert auch das kindliche Konsumverhalten (Aufenanger 2005). Mit Blick auf den Konsum wird heute von der „kommerziellen Kindheit“ (Oelkers 2004: 3) gesprochen, in der schon im frühen Kindesalter Konsum und Markenbewusstsein eine wesentliche Rolle spielen. Diese Veränderungen treffen mit einem bereits seit etwa 150 Jahren beobachteten Trend zusammen, der als „Akzeleration“ bezeichnet wird. Dieser Begriff hat in eine Vielzahl von wissenschaftlichen Bereichen Eingang gefunden, die sich mit Jugendlichen befassen. Anfangs wurde mit dem Begriff vor allem der Trend beschrieben, dass Nachfolgegenerationen durchschnittlich eine größere Körpergröße aufweisen, als ihre Elterngeneration. Dieser Trend der säkularen Akzelera- tion schlägt sich auch auf den gesamten Verlauf der Pubertät nieder. So zeigt sich, dass das durchschnittliche Menarchealter (Eintritt der ersten Menstruation) von Generation zu Generation um etwa 10 Monate absinkt. Während es um 1850 durchschnittlich noch bei 17,5 Jahren lag, tritt dieses Ereignis bei heute heranwachsenden Mädchen bereits im Alter von etwa 12,8 Jahren ein. Bei Jungen lässt sich nur ein geringer zeitlicher Entwicklungsunterschied aber insgesamt der nahezu identische Entwicklungstrend feststellen (Kahl /Schaffrath Rossario /Schlaud 2007). Mit dieser körperlichen „Vorverlagerung“ des Fast-Erwachsenen-Alters ist auch eine auf das Verhalten bezogene größere Autonomie von Kindern und Jugendlichen zu konstatieren, da diese immer deutlicher ihre Selbstständigkeit einfordern und auch in vielen Bereichen umsetzen können. Vollbrecht (2002: 5) spricht in diesem Kontext von „modernen Verhandlungsfamilien“, bei denen der Streit um „Süßigkeiten ja oder nein“, zu dem Kompromiss „Verzehr einer ‚gesunden’ Schokolade“ führt. Theoretisch ließe sich dies – so Vollbrecht – durch einen Wettstreit zweier sehr unterschiedlicher Kindheitsprojekte beschreiben. Während Kindheit lange als pädagogisches Projekt der Erwachsenen (also der Eltern) und damit als zukunftorientiertes Entwicklungs-, Erziehungs- und Bildungsprojekt verstanden und gelebt wurde, tritt nun das gegenwartsbezogenes Autonomieprojekt der Kinder hierzu immer früher in Konkurrenz. Kinder werden besonders von der Werbung frühzeitig als eigenständige Personen wahrgenommen, die sich aktiv und zum Teil mit großer Vehemenz an der Gestaltung ihres Umfeldes beteiligen (Bickler 2001: 79). Autonomie – also die Freiheit selbst zu bestimmen, was man tut und konsumiert – beinhaltet immer auch das Risiko, etwas falsch zu machen, wofür man dann selbst verantwortlich ist. Individualisierung und Wahlfreiheit, die im Kontext von Überlegungen zu so genannten Bastelbiografien (Beck /Beck-Gernsheim 1993) thematisiert werden, implizieren nicht nur für Erwachsene, sondern in besonderem Maße auch für Kinder und Jugendliche das Risiko des Scheiterns. Diese Entwicklung hat für Eltern und Kinder Konsequenzen: Ließ sich vor zwei Generationen mit einen „solange du die Füße unter meinem Tisch stellst, …“ jeglicher Freiraum der Nachfolgegeneration bis in das Twen-Alter hinein effektiv beschneiden, so gerät die Elterngeneration heute bereits ihren Kleinkindern gegenüber in vielfältige Erklärungsnöte. Auf Seiten der Jugendlichen sind Unsicherheiten und das Bewusstwerden von Risiken die Konsequenz der Freiräume und Auto- 48 08_hda_querschnitt_gesamt.indb 48 18.03.2008 16:08:21 Uhr Gimme the Gimmicks FACHBEREICH GESELLSCHAFTSWISSENSCHAFTEN UND SOZIALE ARBEIT nomiespielräume. Schulze schreibt: „Man betrachtet die Welt als Speisekarte und stellt sich ein optimales Menü zusammen“ (1998: 305). Dies gilt für Erwachsene aber in wachsendem Maße auch für Kinder und Jugendliche, wobei dem Bereich des Konsums wesentliche Bedeutung zukommt. Kinder und Jugendliche haben selbst noch kaum eine Vorstellungen davon, wohin die „Reise gehen soll“. Deshalb benötigen sie in neuen Situationen einen sozialen Kompass, der mögliche Richtungen weist. Werbung hält für solche Gelegenheiten Anschauungsmaterial bereit, wie man sich in Alltagssituationen verhalten kann. Sie stellt Skripte zu Verfügung, gewissermaßen Regieanweisungen oder „Drehbücher für Prozesse der Sozialisation in eigener Regie“ (Hengst nach Bickler 2001: 80). Richtete sich die Werbung in der Vergangenheit vor allem an die Eltern, um diese davon zu überzeugen, dass Erwerb und Gebrauch des beworbenen Produktes dem Wohle des Kindes dient, so richtet sie sich heute in vielen Fällen an die Kinder direkt, um diese in ihrem Autonomiestreben zu unterstützen. Einige Pädagogen sehen es mit Skepsis, dass sich die Werbung zunehmend aus dem Erziehungsprojekt der Eltern verabschiedet und sich auf die Seite der Kinder schlägt. Werbung bietet den Kindern und Jugendlichen bei der Umsetzung ihres Autonomieprojektes umfangreiche Hilfestellungen, da sie ihnen neben den Skripten für die eigene Identitätsfindung zugleich Argumente an die Hand gibt, mit denen sie den Eltern gegenüber ihre eigenen Produktwünsche durchsetzen können. Damit kommt die Frage in den Blick, von welchem Alter an Kinder Werbung als solche wahrnehmen und intellektuell bereits so kompetent sind, um bewusste Empfänger von Werbebotschaften zu sein. Anders formuliert: Wie verläuft die ökonomische Sozialisation? Juristische ist diese Frage mit der Einschränkung der Geschäftsfähigkeit beantwortet. Pädagogisch wäre zu prüfen, inwieweit bzw. wann Kinder in der Lage sind, Käufe als Ausdruck ihres Konsumverhaltens auch realistisch einzuschätzen: Ab welchem Alter verfügen Kinder über die Fähigkeit, die Angemessenheit von Preis und erhaltener Leistung adäquat abzuwägen? Der Kinder- und Jugendschutz zielt auch darauf ab, Kinder und Jugendliche davor zu schützen, dass ihre Unerfahrenheit ausgenutzt wird. Soweit allerdings von den „kleinen Kunden“ die eigenen Transaktionen nicht wirklich überblickt werden können, liegt die Vermutung eines entsprechenden Missbrauchs nahe. Auch wenn sich die Autonomiespielräume von Kindern und Jugendlichen in den letzten Jahren erweitert haben, stellt sich die Frage, wie kompetent sie im Umgang mit Werbung tatsäch- lich sind. Reinhold Hedtke (2002: 9) schreibt, dass der Verlauf der ökonomischen Sozialisation bislang weitgehend unerforscht sei. Es ist bislang ungeklärt, in welchem Alter Kinder und Jugendliche beginnen, ökonomische Prozesse zu verstehen und zu durchschauen. Die Antwort hierauf ist insofern von Bedeutung, da von ihr abhängt, wie einzelne Werbemaßnahmen zu bewerten sind. In der vorliegenden dritten Auflage der Studie wurde ein deutlich größerer Anteil der Werbeanzeigen als Verstoß – also als den verabschiedeten Werberegeln nicht entsprechend – bewertet. Dies ist vor allem darauf zurückzuführen, dass die Zahl der Werbemaßnahmen ansteigt, die mit Gratisverlosungen und Geschenken lockt. Hier geht es immer darum, dass den jungen Kunden Highlights gratis angeboten werden, die sie zum Mitmachen animieren oder auch zum Erwerb einer Zeitschrift bewegen sollen. Die dahinter stehende Debatte wird auch andernorts geführt. Stellvertretend hierfür ein Text von Barlovic und Clausnitzer (2005). Ausgangspunkt ihres Textes sind Kritiken an Werbeaktivitäten, die sich auf Kinderprodukte beziehen. Aus ihrer Sicht, sie sind Geschäftsführender Gesellschafter bzw. Senior Project Manager der icon-kids & youth international research GmbH, gibt es vielfältige Gründe, die dafür sprechen, Kinder mit Werbung anzusprechen. Die sicherlich erfahrenen Jugendforscher, die sich vor allem der Unterstützung der Marketingbemühungen der Produzenten von Kinderprodukten verschrieben haben, betonen, dass sie die Kinder als „autonome Persönlichkeiten“ ernst nehmen. Sie formulieren dies aber in einer Form, die dem Leser den Umkehrschluss nahe legt, dass Kritiker der Werbung für Kinderprodukte, den jungen Kunden ihre vorhandene Kompetenz absprechen bzw. diese nicht richtig ernst nehmen. Ein kritisch bewertetes kindliches Konsumverhalten wird von Barlovic und Clausnitzer vor allem auf eine defizitäre Erziehung durch die Eltern, nicht aber auf die Werbung zurückgeführt. Indiz für ihre Annahme ist unter anderem, dass es [1] auch der Werbung nicht gelinge, ein schlechtes Produkt zu verkaufen. Die besondere Kompetenz von Kindern sei [2] vor allem in der vernichtenden Kritik zu erkennen, die die befragten Kinder und Jugendlichen in der kommerziellen Werbeforschung den Kunden von iconkids & youth gegenüber misslungenen Werbekampagnen äußern. Darüber hinaus würden Kinder [3] Produkte sehr bewusst über ihren Wert (Spaßfaktor und Profilierung gegenüber den Peers) beurteilen und aussuchen. „Echter Produktnutzen schlägt Werbeaussagen, Kinder sind da unbestechlich“ (Barlovic /Clausnitzer 2005: Seite 5 des Downloads). Dies gelte [4] auch für jene Produkte, die 49 08_hda_querschnitt_gesamt.indb 49 18.03.2008 16:08:23 Uhr QUERSCHNITT 22 nach kurzzeitigem Gebrauch kaputt sind, da sie den „Kindern zumindest kurzfristig einen enormen Nutzen bringen“ (ebd.). Aus Sicht von Eltern, die sich im Supermarkt an der Kasse mit dem Schild anstellen „Auf Anregung von Eltern verzichten wir an dieser Kasse auf das Angebot von Süßigkeiten“, um dann beim Auspacken des Einkaufswagens von Kleinspielzeug umgeben zu sein, muten entsprechende Aussagen wohl eher zynisch an. Die teilnehmende Beobachtung des Verhaltens von Kindern zeigt, dass sie impulsives Kaufverhalten an den Tag legen, das eine kurzfristige Befriedigung liefern soll. Dieses Verhalten zeigt, dass Kinder nicht sehr kompetent bei der Bewertung von Produkten sind. Der Erwerb von Kinderzeitschriften kann als gutes Beispiel dienen. Das Entscheiden zwischen verschiedenen Produkten erfolgt in der Regel aufgrund des angebotenen „Gimmicks“ (also des kleinen Zusatzgeschenks, das auf dem Heft klebt). Solche give aways wurden in Deutschland erstmals in den siebziger Jahren von der ComicZeitschrift „Yps“ eingeführt. Diesen im Vergleich zum eigentlichen Produkt billigen Zugaben kommt große Bedeutung zu. Bei der (Aus-)Wahl kehrt sich genau genommen das Verhältnis von Produkt und Gimmick um. Das mitgelieferte Gimmick prägt die Auswahl seitens des Kindes und die daran klebende Zeitschrift wird zur netten Dreingabe: The gimmick sells. Literatur • 1 Aufenanger, Stefan (2005): Medienpädagogische Überlegungen zur ökonomischen Sozialisation von Kindern. In: merz. medien + erziehung, 49. Jg., H. 1 /05, S. 11-16. 2 Barlovic, Ingo /Clausnitzer, Christian (2005): Kommerzielle Werbeforschung mit Kindern. Ziele, Methoden und der Blick auf das Kind. In: merz. medien + erziehung, 49. Jg., H.1, S. 17-23. download: www.mediaculture-online.de / fileadmin /bibliothek /barlovic_kinderwerbeforschung / barlovic_ kinderwerbeforschung.pdf (Stand 15. 06. 2007). 3 Beck, Ulrich, Beck-Gernsheim, Elisabeth (1993): Nicht Autonomie, sondern Bastelbiographie. In: Zeitschrift für Soziologie, Jg. 22, H. 3, S. 178-187. 4 Becker, Cornelia (2002): Kinder im Netz der Werbewirtschaft – Kinderzeitschriften als Einstieg zu interaktiver Werbung. sofia Diskussionsbeitrag zur Institutionenanalyse, Nr. 02-2, Darmstadt. 5 Becker, Cornelia (1999): Kinder und Jugendschutz in der Werbung – eine Analyse von 100 Kinderzeitschriften. sofia Diskussionsbeitrag zur Institutionenanalyse, Nr. 99-2, Darmstadt. 6 Bickler, Daniela (2001): Zielgruppe Kinder – Handlungsspielräume eröffnen, Abhängigkeiten vermeiden. In: tv diskurs – Verantwortung in audiovisuellen Medien, H. 17, S. 78-81. (Herausgegeben von der Freiwilligen Selbstkontrolle Fernsehen – FSF). 7 BRAVO Faktor Jugend 8 (2005): Now and Forever – jugendliche Markenbeziehungen in der Retrospektive. Bauer Media KG. Präsentation unter: http://www.bauermedia.com / fileadmin /user_upload /pdf /studien /zielgruppe /jugend / jugend8.pdf (Stand: 26.10.2007). 8 Deutscher Werberat (1998): Verhaltensregeln des Deutschen Werberats für die Werbung mit und vor Kindern in Hörfunk und Fernsehen. unter: www.werberat.de → link: Verhaltensregeln → link: Werbung mit und vor Kindern (Stand 05. 04. 2007). 9 Egmont Ehapa Verlag (2007): Mediendaten 2007. Berlin. 10 Egmont Ehapa Verlag (2006): KidsVerbraucherAnalyse 2006. Kinderzielgruppen 6-13 Jahre. Präsentation des Verlages. download: http://www.ehapamedia.de/ pdf_download /KVA06_Praesentation.pdf (Stand: 26.10.07). 11 Feierabend, Sabine /Klingler, Walter (2006): Was Kinder sehen. Eine Analyse der Fernsehnutzung drei bis 13 jähriger 2005. In Mediaperspektiven, 3 /2006, S. 138-153. 50 08_hda_querschnitt_gesamt.indb 50 18.03.2008 16:08:24 Uhr Gimme the Gimmicks FACHBEREICH GESELLSCHAFTSWISSENSCHAFTEN UND SOZIALE ARBEIT 12 Hedtke, Reinhold (2002): Ökonomische Bildung im Boom? Konzeptionen, Interessen, Herausforderungen. download unter http://www.uni-bielefeld.de /soz /ag /hedtke /pdf / oekon-bildung_awt-online.pdf (Stand: 15. 06. 2007). 13 Heffler, Michael /Möbus, Pamela (2006): Der Werbemarkt 2005. Rekordwerte beim Bruttoumsatz – verhaltene Steigerung beim Nettoumsatz. In: Mediaperspektiven, 6 /2006, S. 315-322. 14 Kahl, H. /Schaffrath Rossario, A. /Schlaud, M. (2007): Sexuelle Reifung von Kindern und Jugendlichen in Deutschland. Ergebnisse des Kinder- und Jugendgesundheitssurveys (KIGGS). In: Bundesgesundheitsblatt – Gesundheitsforschung – Gesundheitsschutz, Jg. 50, Nr. 5 /6, S.677-685. 15 Kroeber-Riel, Werner /Esch, Franz-Rudolf (2004): Strategien und Techniken der Werbung. Verhaltenswissenschaftliche Ansätze. 6. Auflage, Stuttgart. 16 Oelkers, Jürgen (2004): Jugend, Konsum und Maßlosigkeit? Vortrag in der Veranstaltungsreihe Elternbildung Winterthur zum Thema „Wandel im Familien- und Erziehungsalltag“ am 21. September 2004 in der Berufs- und Fortbildungsschule Winterthur. download: http://www.paed-work.unizh.ch /ap /downloads /oelkers / Vortraege /149_Winterthur.pdf (Stand 06. 04. 2007). 17 Römer, Bettina von /Steffensen, Bernd (2007): Kinder und Jugendliche als Zielgruppe des Erlebnismarketings – Werbung in Kinderzeitschriften und korrespondierenden Internetangeboten. sofia-Studien zur Institutionenanalyse, Nr. 07-2, Darmstadt. 18 Schulze, Gerhard (1999): Die Zukunft des Erlebnismarktes. Ausblicke und kritische Anmerkungen. In: Nickel, O. (Hrsg.): Eventmarketing. Grundlagen und Erfolgsbeispiele, München, S. 303-314. 19 VDZ [Verband Deutscher Zeitschriftenverleger] (2007): Zeitschriften wieder auf Wachstumskurs. Anzeigenumsätze 2006 um 3,6 % gestiegen. Meldung vom 03. 04. 2007. download unter: http://www.vdz.de /nachricht21.html?&tx_ ttnews[pointer]=16&tx_ttnews[tt_news]=2962&tx_ttnews[b ackPid]=295&cHash=3650262c50 (Stand: 26. 11. 2007). 20 Vollbrecht, Ralf (2002): Werbung, Markenorientierung und Konsum im Kindes- und Jugendalter. In: ajs info. Zeitschrift für Kinder- und Jugendschutz (herausgegeben von Aktion Jugendschutz Sachsen e.V.), 9. Jg., Nr. 1, S. 5-7. Kurzbiografien • Dipl.-Soz. Bettina von Römer Jahrgang 1961, studierte Soziologie und Geschichte an den Universitäten Marburg und Bielefeld mit dem Schwerpunkt betriebliches Personal- und Organisationswesen. 1988 bis 1989 Mitarbeiterin an der Ludwig Boltzmann Forschungsstelle für Politik und zwischenmenschliche Beziehungen (Wien). Von 1989 bis 1996 wissenschaftliche Mitarbeiterin und Koordinatorin der Forschungsgruppe „Rationalität des Ingenieurhandelns“ an der Universität Kassel. Danach Lehrbeauftragte an verschiedenen Weiterbildungseinrichtungen. Freie Mitarbeiterin der Sonderforschungsgruppe Institutionenanalyse (sofia) am Fachbereich Gesellschaftswissenschaften und Soziale Arbeit der Hochschule Darmstadt. Prof. Dr. Bernd Steffensen Jahrgang 1960, studierte Soziologie, Verwaltungswissenschaften, Psychologie und Geschichte an den Universitäten Kiel, Bielefeld und Lancaster. Von 1989 bis 1992 wissenschaftlicher Mitarbeiter an der Universität Bielefeld und am ASIF-Institut in Bielefeld. Von 1992 bis 1996 und von 1999-2000 wissenschaftlicher Mitarbeiter an der Akademie für Technikfolgenabschätzung in Baden-Württemberg (Stuttgart). Hier vor allem Arbeiten zu Innovationsprozessen bei neuen Technologien, zum regionalen Wirtschaftsstrukturwandel, zur Innovationswirkung der technischen Normung und zum Thema technologieorientierte Unternehmensgründungen. Von 1996 bis 1999 wissenschaftlicher Mitarbeiter am Lehrstuhl Arbeit und Organisation an der Universität Stuttgart. Seit 2001 Professur an der Hochschule Darmstadt im Fachbereich Sozial und Kulturwissenschaften (seit 2007: Gesellschaftswissenschaften und Soziale Arbeit). Mitglied der Sonderforschungsgruppe Institutionenanalyse (sofia). Schwerpunkte der Arbeit sind: Sozialwissenschaftliche Innovations- und Technikfolgenforschung, Unternehmensgründungen sowie Fragen der rechtlichen Regulierung in unterschiedlichen gesellschaftlichen Bereichen. 51 08_hda_querschnitt_gesamt.indb 51 18.03.2008 16:08:26 Uhr QUERSCHNITT 22 EIN ELEKTRONISCHES LERN-MANAGEMENTSYSTEM MIT INTEGRIERTER BILDTELEFONIEUND VIDEOKONFERENZFUNKTION Autoren • Prof. Dr. Michael Massoth, Daniel Brügger, Mahtab Dalir, Nadine Haertel, Jürgen Müller, Thomas Treusch und Christine Weber Funktionen für Lehrer • Verwaltung von Lerninhalten • Verwaltung von Benutzern und Benutzer-Rechten • Verwaltung von Online-Tests • Verwalten von Diskussionsforen Funktionen für Lerner • Anmeldung für Kursteilnahme • Anmeldung für Online-Tests • Erstellung von Beiträgen für Foren Kurse Online-Hilfe Asynchrone Kommunikation • Diskussionsforen • Pinnwand Kommunikation Synchrone Kommunikation • Chat • Whiteboard • Audio- / Videokonferenz Online-Test Inhalt Foren verschiedene Rechte mit unterschiedlichen Funktionen Lerner verschiedene Rollen Lerner Administrator Lehrer Abbildung 1 • Aufbau und Konzeption des Lern-Managementsystems „Moodle“ 52 08_hda_querschnitt_gesamt.indb 52 18.03.2008 16:08:29 Uhr Ein elektronisches Lern-Managementsystem mit integrierter Bildtelefonie- und Videokonferenzfunktion FACHBEREICH INFORMATIK 1 • Einleitung und Motivation Vision (1): Interaktives, echtzeitfähiges eLearning als Ergänzung der Hochschullehre Noch vor wenigen Jahren war zu erwarten, dass eLearning das Lernen und Lehren revolutionieren würde und der Bildung und Weiterbildung einen innovativen Schub geben würde. Heute ist weitgehend Ernüchterung eingetreten bezüglich des reinen eLearning. Aufgrund mangelnder Interaktion und Echtzeitfähigkeit sowie nur weniger Kommunikationskanäle hält sich die freiwillige Nutzung durch Dozenten und Lernende sehr in Grenzen. Beispiele für Echtzeitfähigkeit sind Voice over Internet Protocol (VoIP), Bildtelefonie und Videokonferenzen. Derzeit heißt der pragmatische Ansatz „Blended Learning“. Der Begriff „Blended Learning“ bedeutet vermischtes, integriertes Lernen und umfasst Präsenzunterricht in Kombination mit internetbasiertem Lernen. Blended Learning versucht die Vorteile und Stärken der Vermittlungsformen seminaristischem Präsenzunterricht und eLearning zu nutzen. Die elektronische Unterstützung bietet den Einsatz unterschiedlicher Medien (wie Bild, Video, Ton, Animation, Schrift, u.v.m.) an. Es ermöglicht den Lernenden ein selbstbestimmtes Lerntempo und somit ein effektives, selbstgesteuertes und optimiertes Lernen. Vision (2): Next Generation Networks und das IP Multimedia Subsystem – die neue Architektur Die Next Generation Networks oder Telekommunikationsnetzwerke der nächsten Generation nehmen Gestalt an. Dabei wird es sich im Kern um paketvermittelte Netze handeln, die den Kunden eine IP-Anbindung mit hoher Bitrate, Performance, Ende-zu-Ende-Qualität und Sicherheit bieten. Vieles an der neuen Systemarchitektur basiert dabei auf den Erfahrungen rund um VoIP, Streaming und modernen Mobilfunktechnologien, wie z. B. dem Universal Mobile Telecommunication System (UMTS) und seinen Erweiterungen. Entscheidend für die neue Struktur ist die Trennung von Transportnetzwerk (IP-Backbone mit Dienstgüte-Unterstützung), Zugangstechnologie und Diensten. Das Netzwerk bildet dabei die Integrationsplattform für innovative Dienstleistungen, auf die von überall und jederzeit zugegriffen werden kann. Ähnlich einem Dirigenten (hier: Mensch + IMS), der ein Orchester mit verschiedensten Diensten und Anwendungen zu einem harmonischen Miteinander und Zusammenwirken führen muss. Das IP Multimedia Subsystem (IMS) ist ein wesentlicher Baustein der Next Generation Networks. Das IMS ermöglicht providerübergreifenden Zugang zu den gewünschten Dienstleistungen im Heimatnetzwerk über das Internet Protocol (IP). Die Signalisierung und der Austausch von Kontrollnachrichten erfolgt dabei mit dem Session Initiation Protocol (SIP), das für die Zusammenarbeit mit anderen Festnetz- und Mobilfunktechnologien erweitert wird. 53 08_hda_querschnitt_gesamt.indb 53 18.03.2008 16:08:30 Uhr QUERSCHNITT 22 Multipoint Control Unit Anwender Internet Open IMS Core LDAP-Server Web-Server (Moodle) Abbildung 2 • Kooperation von Moodle und Open IMS 2 • Konkrete Ziele Ziele des Projekts sind, 1 • Erweiterung des bereits vorhandenen und populären eLearning-Managementsystems Moodle um eine Bildtelefonie- und Videokonferenzfunktion, 2 • Installation, Konfiguration und Betrieb eines IP Multimedia Subsystem Cores (IMS Core), 3 • Zusammenführung, Integration und Betrieb der beiden Open Source-Lösungen mit dem Lern-Managementsystem Moodle als Anwendung und dem IMS Core als Sitzungssteuerung. Das Lern-Managementsystem (LMS) einerseits und das IP Multimedia Subsystem (IMS) mit Videotelefonie- und Videokonferenzfunktion andererseits sind voneinander unabhängige Systeme. Um die erste Zielsetzung zu erreichen, wurde das LMS Moodle ausgesucht, da es eine Open Source-Plattform ist und bereits an der Hochschule Darmstadt getestet und eingesetzt wird. Moodle ist ein weltweit anerkanntes, elektronisches LMS und basiert als eLearning-Plattform auf dem Konzept des konstruktivistischen Lernens. Die Abkürzung Moodle steht für Modular Object Oriented Dynamic Learning Enviroment (modulare, objektorientierte und dynamische Lernumgebung). Moodle wird als freie Software (Open Source) unter der GNU General Public License Version 3 kostenlos zur Verfügung gestellt. Abbildung 1 zeigt den Aufbau und die zugrundeliegende Konzeption des LMS Moodle. Das Videokonferenzsystem soll auf dem Session Initiation Protocol (SIP) basieren und einen Open Source SIP-Server benutzen. Für die Nutzung des SIP-Videokonferenzsystems wird ein SIP-User Agent (SIP-Bildtelefon) benötigt. Solch ein SIPBildtelefon soll als Softwarekomponente in das LMS Moodle integriert werden. Das IP Multimedia Subsystem (IMS) ist eine Sammlung von Spezifikationen des 3rd Generation Partnership Project (3GPP) [2]. Unser zweites Ziel wird mittels des Open IMS umgesetzt. Das Open IMS wurde vom Fraunhofer-Institut für Offene Kommunikationssysteme (FOKUS) [5] entwickelt. Dieses System enthält alle notwendigen Bausteine des sogenannten IMS Core für eine vollständige und nahtlose Integration von Technologien und Endgeräten sowie für den Einsatz von flexiblen Kommunikationsdiensten und -anwendungen. Der IMS Core realisiert alle wesentlichen IMS-Komponenten und Protokolle, um die verschiedenen Architekturen und Dienste für Next Generation Networks zu verbinden. Auf Basis des IMS Core können sowohl Telekommunikationsals auch Internettechnologien (Festnetze, Mobilfunknetze, Kabellose Netze, DSL-Netze) zu einer flexiblen und gemeinsamen Infrastruktur kombiniert werden. Über diese Infrastruktur lassen sich neue Applikationen einführen. Im Rahmen des Projekts wird das Lern-Managementsystem Moodle über den IMS Core bereitgestellt und um ein Videokonferenzsystem erweitert. Diese Kombination ist eine neue Entwicklung und führt zur dritten Zielsetzung dieses Projekts: Der Zusammenführung, Integration und dem Betrieb der beiden Open SourceLösungen mit dem Lern-Managementsystem Moodle als Anwendung und dem IMS Core als Sitzungssteuerung. Abbildung 2 zeigt die kooperative Zusammenarbeit der beiden Komponenten, dem Lern-Managementsystem Moodle mit dem IP Multimedia Subsystem Open IMS. 3 • Markt und Nutzen Der Markt für Informationswirtschaft, Telekommunikation und neue Medien (ITK-Markt) befindet sich aktuell in einem fundamentalen Wandel. Aus technischer Sicht erleben wir im Rahmen der digitalen Konvergenz eine Ablösung der bisherigen, leitungsvermittelten Netzwerktechnologien, hin zu paketvermittelten Zugangs- und Transportnetzwerken mit dem Internet Protocol (IP) als kostengünstige Vermittlungstechnologie. Gleichzeitig kommt es zu einer Konvergenz von Fest- und Mobilfunknetzen. Aus wirtschaftlicher Sicht erlebt der ITK-Markt eine Diversifikation und Differentiation. Die traditionelle Wertschöpfungskette erfährt eine Erweiterung und Aufspaltung in Contentprovider, Portalbetreiber, Serviceprovider und Netzwerkbetreiber. Ehemals klassische Mobilfunkbetreiber versuchen ebenfalls den Home- und Officemarkt zu erreichen, während sich ehemals klassische Festnetzbetreiber zusätzlich als virtuelle Mobilfunkanbieter und Betreiber von WLAN Hotspots betätigen. Weltweit befinden sich immer mehr Betreiber in Test- oder Trial-Phasen für IMS-Installationen. Laut einem Bericht von ABI Research [3] werden Mobil- und Festnetzanbieter 10,1 Milliarden US-Dollar in IMS-Infrastrukturen im Zeitraum von 2006 bis 2011 investieren und voraussichtlich 49,6 Milliarden US-Dollar Umsatz mit IMS-basierten Anwendungen erzielen. 54 08_hda_querschnitt_gesamt.indb 54 18.03.2008 16:08:31 Uhr Ein elektronisches Lern-Managementsystem mit integrierter Bildtelefonie- und Videokonferenzfunktion FACHBEREICH INFORMATIK Spiele-Server Benutzer A GSM Open IMS Core Benutzer B GPRS Abbildung 3 • Anwendungsbeispiel für den Einsatz von IMS Diese Zahlen sprechen deutlich für das IMS als nächsten logischen Entwicklungsschritt in Richtung Konvergenz von Festnetz und Mobilfunk sowie für Triple und Quad Play-Angebote. Eine breite Lobby von Unternehmen, insbesondere der Mobilfunkbranche, unterstützt die Forschung und Entwicklung der IMS-Technologie durch hohe Investitionen, nicht zuletzt weil dieser Sektor ein hohes Marktpotential verspricht. Der Hauptnutzen dieser Entwicklung für den Endkunden ist die Integration von Telefonie, Messaging, Videokommunikation und anderen multimedialen Informationsdiensten sowohl im Festnetz als auch im Mobilfunknetz. Das Internet Protocol (IP) bildet dabei die Basis zur Integration von Sprache, Video, Messaging, Kalender, Adressbüchern und Präsenzinformationen. Im Zusammenspiel all dieser Komponenten werden ganz neue, einfacher zu nutzende und über IP nahtlos integrierbare Dienste für den professionellen Nutzer und den privaten Endkunden entstehen. Studien mit Bezug auf die zukünftig verstärkt genutzten Anwendungen, wie Internet Protocol Television (IPTV) oder auch Audio Streaming (Music) und Online Gaming, zeigen, dass sich Investitionen in die IMS-Technologie rentieren. Nach aktuellen Untersuchungen von Goldmedia und Kooperationspartner Screen Digest [4], wird Mobile-TV unter den mobilen Anwendungen zukünftig den größten Wachstumsschub erzielen. Laut dieser Studie werden 2011 weltweit voraussichtlich rund 140 Millionen Menschen Handy-TV nutzen und damit einen Umsatz von 4,7 Mrd. Euro erwirtschaften. und zum anderen verfügen die meisten Messenger über eine Presence Funktion (Prüfen des Onlinestatus). Bereits etabliert ist die Audiokommunikation mittels VoIP (Voice over IP). Auch hierbei spielt SIP eine große Rolle. Genauso wie bei der sich immer weiter verbreitenden Videokonferenz. Die nachfolgenden Anwendungen gehen davon aus, dass eine direkte Verbindung zwischen zwei SIP User Agents besteht. Anwendungsszenarien Nicht nur die Netzbetreiber erwarten eine gute Performance ihrer Netzwerke, auch die Endkunden möchten ihre Anwendungen schnell und einfach ausführen können. Die Abbildung 3 stellt ein Szenario dar, wie Benutzer über den IMS Core beispielsweise ein gemeinsames Online-Spiel nutzen können. Benutzer A befindet sich aktuell in einem leitungsvermitteltem GSM-Mobilfunknetz, Benutzer B in einem paketvermitteltem GPRS-Mobilfunknetz. Über eine standortunabhängige mobile Einheit (Handy, Laptop) führen beide Benutzer über das Internet ein Online-Spiel als Echtzeit-Anwendung aus. Der Einsatz der SIP-Technologie ermöglicht viele verschiedene Kommunikationsanwendungen. Ein Beispiel dafür wären Chats oder Instant Messanger. Instant Messenger benutzen SIP sogar doppelt. Einmal für das Übertragen der Nachrichten Videokonferenzen – Videoconferencing over IP Kombiniert man nun diese beiden Technologien, Audio- und Videokommunikation over IP, spricht man von einer Videokonferenz über IP. Das SDP sorgt auch hierbei für die richtigen Parametereinstellungen. Audiokommunikation – Voice over IP (VoIP) Mit VoIP bezeichnet man das Telefonieren über ein paketvermitteltes Computernetzwerk. Genau wie bei der klassischen leitungsvermittelten Telefonie wird zuerst eine Verbindung (Session) aufgebaut, über die dann Sprache und Steuerinformationen übertragen werden können. Beim Aushandeln der Session wird mit Hilfe des Session Description Protocol (SDP) festgelegt, welche Arte von Medien und welche Codecs verwendet werden können. Anschließend können dann die Nutzdaten (hier: Sprachpakete) an den UDP Port 1028 gesendet werden. Videokommunikation – Video over IP Bei der Videokommunikation verläuft der Aufbau einer Session ähnlich wie bei der Audiokommunikation. Hier ist der Codec H.263 mit einer Abtastrate von 90000 Hz aber fest vorgegeben. Die Daten werden anschließend an den UDP Port 1038 gesendet. Instant Messaging (IM) Beim IM oder Nachrichtensofortversand ist es möglich, dass ein Client kurze Textmitteilungen mit anderen Teilnehmern austauscht. Hierfür ist keine Session nötig, da die Daten nur einmalig gesendet werden. Der Text wird einfach im Message Body einer SIP-Nachricht übertragen. Presence (Ermitteln des Online-Status) Mit der Presence-Funktion kann man herausfinden, ob der gewünschte Gesprächsteilnehmer gerade online ist. Es wer55 08_hda_querschnitt_gesamt.indb 55 18.03.2008 16:08:31 Uhr QUERSCHNITT 22 Anwendungsschicht Anwendungs-Server VerbindungsSteuerungsschicht HSS, CSCF, MGCF, MRF, MGW Verbindungsschicht IP-Netz, PSTN/PLMN Zugangsnetzschicht GSM, GPRS, EDGE, UMTS, CDMA, Wi-Fi, WiMax, WLAN CDMA CSCF EDGE GPRS GSM HSS IP MGCF MGW MRF PLMN PSTN UMTS WiMax WLAN Code Division Multiple Access Call Session Control Function Enhanced Data Rates for GSM Evolution General Radio Packet Service Global System fpr Mobile Communication Home Subscriber Server Internet Protocol Media Gateway Control Function Media Gateway Multimedia Recource Function Public Land Mobile Network Public Switched Telephone Network Universal Mobile Telecommunication System Worldwide interoperability for Microwave Access Wireles Local Area Network Abbildung 4 • IMS-Architektur mit Anwendungen. den in voreingestellten Abständen Anfragen nach dem Status des Gesprächsteilnehmers gesendet. Sobald dieser online ist, wird eine entsprechende Antwort gesendet. Man kann auch Einstellungen vornehmen, eine solche Antwort unterbindet [13]. 4 • Die Technik Der IMS-Standard [1] beschreibt die grundlegenden Netzelemente, ihre Funktionen sowie die Schnittstellen zwischen ihnen. Die einzelnen Netzelemente übernehmen dabei verschiedene Funktionen, so stellt die Anwendungsschicht Dienste bereit und die Call Session Control Functions (CSCF) übernehmen in der Verbindungs- und Steuerungsschicht die Signalisierung. Auf diese Weise sollen die verschiedenen Zugangsnetze, wie das Global System for Mobile Communication (GSM) oder das Universal Mobile Telecommunication System (UMTS), in der Verbindungsschicht in eine gemeinsame Infrastruktur zusammengeführt werden. Der Nutzen dieser Infrastruktur liegt für Mobilfunkbetreiber darin, zahlreiche Sprach-, Multimedia- und Datendienste mit dem Internet Protocol (IP) und dem Session Initiation Protocol (SIP) realisieren zu können. Dies gilt sowohl für Einzel- und Gruppenkommunikation, als auch für Echtzeit- und NichtEchtzeit-Anwendungen sowie für Triple Play- und Quad PlayDienste. Beispiele für IMS-Anwendungen sind fixed und mobile IPTV, VoIP, Multimedia- und Videokonferenzen, Videospiele mit mehreren Teilnehmern sowie Push to Talk oder Instant Messaging. Darüber hinaus gestattet ein IMS den Aufbau von Multimediaverbindungen sowie den Wechsel zwischen verschiedenen Diensten ohne Medienbrüche. Für diesen Zweck bietet das IMS eigene Standards und ein Schichten-Modell, wodurch das Telekommunikationsnetz, wie in Abbildung 4 gezeigt, kon- MMI VoIP, PTT/PTS, Location Stream Game, VM, Push, Browser Media Manager OS OAL SIP RTP RTCP Call Manager H.264/MPEG-4, WMV, AMR, RTC, G.72x, G.711 TCP AMR Adaptive Multi-Rate IP Internet Protocol IPsec Internet Protocol Security MPEG-4 Moving Picture Experts Group Layer 4 MMI Multimedia Interface OAL Operating System Abstraction Layer OS Operating System PTS Personal Telecommunication Service PTT Postal Telephone and Telegraph Push Push to Talk RTC Real Time Communication RTCP Real Time Transport Control Protocol RTP Real Time Transport Protocol SIP Session Initiation Protocol TCP Transport Control Protocol UDP User Datagram Protocol VM Virtual Marketplace VoIP Voice over Internet Protocol WMV Windows Media Video UDP IP IPsec Abbildung 5 • Der IMS Software-Stapel 56 08_hda_querschnitt_gesamt.indb 56 18.03.2008 16:08:32 Uhr Ein elektronisches Lern-Managementsystem mit integrierter Bildtelefonie- und Videokonferenzfunktion FACHBEREICH INFORMATIK sequent in verschiedene Schichten für das Zugangsnetz, Vermittlungsnetz mit der Sitzungsschicht und die Anwendung gliedert wird. Abbildung 5 zeigt den IMS Software-Stapel mit den wichtigsten Protokollen, Codecs und Anwendungen. Der IMS Core Bisher wurden unterschiedliche Dienste über verschiedene Netze übertragen. Festnetztelefonate laufen über das ISDNNetz, Mobiltelefonate über das GSM-Netz und TV beispielsweise über das Kabelnetz. Die Vision der Entwickler des IMS ist es, diese heterogenen Netze in einem einzigen Netz zu vereinen. Dies soll durch den Einsatz der IMS-Technologie geschehen. Doch wie arbeitet solch ein Netz? Der Kern eines IP Multimedia Subsystems besteht aus vier Komponenten. Das sind drei Call Session Control Function Server (CSCF) und ein Home Subscriber Server (HSS). Die drei CSCF Server setzen sich zusammen aus einem Proxy- (PCSCF), einem Interrogating- (I-CSCF) und einem Serving- (SCSCF) Server zusammen. Sie übernehmen die Weiterleitung der Nachrichten während der HSS als Datenbankserver fungiert, um Informationen über die Benutzer zu verwalten. Nachfolgend wird erklärt, wie eine Nachricht durch das IMS geleitet wird. Als erstes kommt ein Verbindungswunsch beim P-CSCF an. Eine Firewall verhindert den Zugriff Unbefugter. Anschließend wird die Nachricht, sofern erlaubt, an den I-CSCF weitergeleitet. Dieser wählt dann anhand eines Datenbankabgleichs mit dem HSS aus, an welchen S-CSCF die Nachricht weitergeleitet werden soll. Um das Kernnetzwerk vor Angriffen zu schützen, leitet der I-CSCF keine Informationen über das Kernnetzwerk nach außen weiter. Ist ein S-CSCF gefunden, wird die Nachricht an diesen weitergeleitet. Der S-CSCF fragt ebenfalls beim HSS nach, ob für den aktuellen Benutzer spezielle Routingvorschriften gegeben sind. Danach wird die Nachricht an den gewünschten Application Server weitergeleitet. Abbildung 6 zeigt den Open IMS Core und seine Komponenten. Das Potential von IMS liegt insbesondere darin, dass es für die Core-Netze nicht mehr verschiedene Protokolle für Voiceund Datenanwendungen gibt, sondern nur noch das Session Initiation Protocol (SIP). Das Session Initiation Protocol ist ein Steuerungsprotokoll für Sitzungen von VoIP- oder Multimediadiensten. Es dient zur Übermittlung von Signalisierungs- und Vermittlungsdaten für die Steuerung einer Kommunikations- P-CSCF CSCF I-CSCF P-CSCF S-CSCF HSS IMS Open IMS Core Call Session Control Functionality Interrogating-CSCF Proxy-CSCF Serving-CSCF Home Subscriber Server IP Multimedia Subsystem I-CSCF HSS S-CSCF Abbildung 6 • Die Komponenten des Open IMS Core 57 08_hda_querschnitt_gesamt.indb 57 18.03.2008 16:08:32 Uhr QUERSCHNITT 22 Anwendungsschicht Schadprogramme, Würmer Transportschicht Port Scanning, Denial of Service-Angriff Internet -Protokollschicht Dynamic Host Configuration Protocol Starvation, Denial of Service-Angriff Medium AccessKontrollschicht Medium Access Control Spoofing Abbildung 7 • Angriffsarten für den IMS Core sitzung. Diese kann sowohl eine Punkt-zu-Punkt-Verbindung als auch eine Konferenz mit mehreren Teilnehmern sein. Über SIP können die Anwendungen gesteuert und gestartet werden. Die Einführung neuer Anwendungen sowie die Zusammenführung verschiedener Dienste werden deutlich einfacher. In der Praxis könnte das so aussehen, dass über SIP die entsprechende Anwendung gestartet wird und in einem zweiten Schritt der entsprechende Nutzdatenstrom der Anwendung über das Real Time Transport Protocol (RTP) läuft. Interessant dabei ist, dass über SIP mit der Signalisierung des Anwendungsstarts gleichzeitig die Benutzerauthentifizierung zentral über einen Home Subscriber Server (HSS) erfolgt und nicht mehr wie bisher für jede Anwendung getrennt. Gerade diese Zusammenführung in einem einzigen Netzelement vereinfacht die Integration verschiedener Dienste wie etwa Location based Services mit Videotelefonie und Videokonferenzen. 4 • Schutz vor unbefugtem Abhören oder Mitschneiden der Nutzdaten, 5 • Sicherstellung der Integrität empfangener Nutzdaten. Die ersten drei Punkte (Schutz vor Missbrauch, der Identität und vor Verfälschung) werden vom verwendeten Signalisierungsprotokoll und die letzten Punkte 4 und 5 (Schutz vor unbefugtem Abhören und Integrität) werden vom Transportprotokoll übernommen. Da während der SIP-Signalisierung Nachrichten und Statusinformationen mit sensiblen Inhalten (z. B. Namen oder IPAdressen) übertragen werden, muss es Möglichkeiten geben diese zu schützen. SIP als Vermittlungs- und Steuerungsprotokoll erlaubt verschiedene Verfahren zum Schutz sicherheitsrelevanter Daten [8]: 1 • SIP Digest 2 • SIPS (SIP Security) mit TLS (Transport Layer Security) 3 • S /MIME (Security /Multipurpose Inter Mail Extension) SIP Digest ist ein Authentifizierungsverfahren für Teilnehmer. 5 • Sicherheit ist wichtig Bei Voice over Internet Protocol (VoIP), Bildtelefonie und Vi- Es wird bei SIP Servern zur Identifizierung eines autorisierten deokonferenzen werden sowohl Signalisierungs- als auch Nutzers, oder zur Authentifizierung eines Nutzers gegenüber Sprachdaten über das Internet übertragen. Dies bedeutet, dass eines anderen Nutzers verwendet. Das Verfahren basiert auf die Gefahren für Rechnernetze auch für den IMS Core gelten. der Übertragung eines gemeinsamen Geheimnisses („Shared Angriffe auf Sprach- und Videokonferenzsysteme können auf Secret“). Dabei wird vom Authentifikator ein einmal gültiger unterschiedliche Art erfolgen. Die Angriffsarten lassen sich in kontextbezogener Wert (Nonce Wert) erzeugt. Das Shared ein Schichtenmodell einordnen: Insgesamt sind vier Schichten Secret ist u. a. vom Nonce Wert und einem Passwort abhängig zu unterscheiden, nämlich Anwendungs-, Transport-, IP- und und wird verschlüsselt an den Authentifikanten übertragen. Im Rahmen des Einsatzes von SIPS mit TLS ist es möglich, MAC-Schicht. Abbildung 7 soll die Angriffsarten auf den verschiedenen eine Authentifizierung der beteiligten Benutzer durch den Austausch von Zertifikaten zu sichern. Anschließend werden Netzwerschichten verdeutlichen. Zugangscodes erzeugt, die nachfolgend nur den beteiligten Benutzern bekannt sind. Damit Daten nicht einfach abgehört Sicherheit im IMS Core Wenn viele Informationen über öffentliche Netzwerknoten werden können, werden sie noch verschlüsselt. Um sicherzulaufen, stellt dies in der Regel ein beliebtes Ziel für Angreifer stellen, dass die empfangenen Nachrichten auf dem entspredar. Deshalb muss das IMS-Netzwerk vor solchen Angriffen chenden Sender ankommen, werden zwei Merkmale überprüft. geschützt werden. Beim Einsatz eines IMS müssen folgende Zum einen wird zu Beginn der Übertragung eine Zufallszahl ermittelt und diese nachfolgend hochgezählt. Zum anderen Punkte als sicherheitsrelevante Aspekte beachtet werden: 1 • Schutz vor Missbrauch eines Teilnehmerzugangs beim wird ein gemeinsames Geheimnis (Shared Secret) ausgehandelt, welches in jeder Nachricht enthalten sein muss. Netzbetreiber durch Unbefugte, 2 • Schutz der Identität (z. B. Name) und persönlicher Infor- In den Nachrichtenkörpern (Message Bodys) von SIP-Nachmationen (z. B. Aufenthaltsort, IP-Adresse) eines Teilneh- richten können auch weitere Informationen (wie z. B. der Presence-Zustand) vorhanden sein. Diese Informationen werden mers, üblicherweise nur von den SIP-Endgeräten ausgewertet. Mit 3 • Schutz vor Verfälschung von Steuerungsinformation, einer Ende-zu-Ende-Verschlüsselung der Message Bodies 58 08_hda_querschnitt_gesamt.indb 58 18.03.2008 16:08:33 Uhr Ein elektronisches Lern-Managementsystem mit integrierter Bildtelefonie- und Videokonferenzfunktion FACHBEREICH INFORMATIK Test System IMS Komponente A IMS Komponente B Test System Test System Monitor Abbildung 9 • Interoperability Testing kann sichergestellt werden, dass diese Daten ausschließlich von den beteiligten Endgeräten gelesen werden können. Dafür ist der Einsatz von S /MIME geeignet. S /MIME ist ein Verschlüsselungs- und Authentifizierungsverfahren, das ursprünglich für E-Mail-Dienste entwickelt wurden, aber generell für eine gesicherte Übertragung von Message Bodys in IP-Netzen verwendet werden kann. Der verschlüsselte Endezu-Ende-Transport über S /MIME wird durch die Nutzung von privaten und öffentlichen Schlüsseln realisiert. Ein Message Body wird durch den Absender mit dessen privaten Schlüssel signiert und mit dem öffentlichen Schlüssel des Empfängers verschlüsselt. Diese Mechanismen können lediglich für die SIP-Signalisierung verwendet werden. Es kann nicht verhindert werden, dass die eigentlichen Nutzdaten der Nachrichten (Sprache oder Bild) mitgeschnitten werden. Ebenso kann nicht sichergestellt werden, dass die Nachrichten auch wirklich vom erwarteten Sender kommen. Dieses Problem kann gelöst werden, indem man das Secure Real Time Transport Protocol (SRTP) einsetzt. Hierbei handelt es sich um eine spezielle sicherere Variante eines gängigen Multimediaprotokolls (RTP). Den gesendeten Paketen werden dabei zusätzlich Master Keys beigelegt, die nur den beteiligten Benutzern bekannt sind. Damit diese nicht ausgelesen werden können, wird das SRTP-Packet verschlüsselt und am Ende mit einer Prüfsumme versehen. Alternativ dazu kann im Open IMS Core auch IP Security (IPSec) zum Einsatz kommen. IPSec kann alle oben genannten fünf Sicherheitsbedürfnisse gleichzeitig abdecken und eine sichere Verbindung auf der IP-Ebene des Datenverkehrs ermöglichen. Auch hier wird die Authentifizierung und Integrität durch die Übertragung eines automatisch generierten Keys und eines Shared Secrets realisiert. Es können zwar auch feste Keys verwendet werden, diese sind jedoch meist leichter zu knacken. Für die Verschlüsselung der transportierten Nutzdaten ist Encapsulating Security Payload (ESP) zuständig. Authentification Header (AH) schützt Pakete vor Veränderung und garantiert die Herkunft von Paketen. IPSec kann im Peerto-Peer-Betrieb punktweise zwischen einzelnen Rechnern eingesetzt werden, in diesem Fall wird IPSec im Transportmodus benutzt. Sollen zwei Gateways miteinander kommunizieren, um zwei verschiedene Netzwerke miteinander zu verbinden, so wird IPSec im Tunnelmodus eingesetzt. Wegen seiner flexiblen Einsetzbarkeit auf IP-Ebene eignet sich IPSec auch exzellent zum Bau von Virtual Private Networks (VPN). Der Open IMS Core wurde vom Fraunhofer FOKUS bereits für den Einsatz mit Transport Layer Security (TLS) und Internet Protocol Security (IPsec) vorbereitet. 6 • Performance und Qualität IMS Testing Erste „IMS Interoperability Tests“ verschiedener Industrieunternehmen und Infrastrukturausrüster fanden im Oktober 2007 statt. Die aktuellen Testspezifikationen beinhalten im Wesentlichen drei Testbereiche „IMS Conformance Testing“, „IMS Interoperability Testing“ und „IMS Performance Testing“. Diese Testbereiche sollen auch von diesem Projekt aufgegriffen und weiterentwickelt werden. IMS Conformance Testing Beim Conformance Testing wird, wie auch die Abbildung 8 darstellt, jede Komponente des Gesamtsystems auf Erfüllung aller vorher definierten Spezifikationen getestet. Es wird geprüft, ob alle Richtlinien von Protokollen und Standards eingehalten werden [13]. Test System IMS Komponente Abbildung 8 • Conformance Testing IMS Interoperability Testing Beim Interoperability Testing werden zwei verschiedene Komponenten des Systems in Kombination miteinander getestet. Es wird geprüft, ob die zwei Komponenten über ein Netzwerk miteinander kommunizieren können und alle Schnittstellendefinitionen eingehalten wurden [13]. In Abbildung 9 kann man sehen, dass sowohl die einzelnen Komponenten als auch die Schnittstellen der Komponenten untereinander getestet werden. IMS Performance Testing Beim Performance Testing werden die Leistung, die Kapazität und die Skalierbarkeit getestet (siehe auch Abbildung 11). Es werden dann zusätzliche Benchmarktests für einen Vergleich mit anderen Systemen durchgeführt [13]. 59 08_hda_querschnitt_gesamt.indb 59 18.03.2008 16:08:33 Uhr QUERSCHNITT 22 Abbildung 10 • Das Projektteam (von links nach rechts): Nadine Haertel, Daniel Brügger, Thomas Treusch, Prof. Dr. Michael Massoth (im Bildschirm), Jürgen Müller, Christine Weber und Mahtab Dalir nigt. Der IMS Core übernimmt dabei die Aufgabe der Sitzungssteuerung, während das Lern-Managementsystem Moodle als Anwendung fungiert. Das IP Multimedia Subsystem ist die aktuelle Referenzarchitektur für die Anwendungen und Dienste der nächsten Generation sowie die Integrationsplattform für die Konvergenz von Fest- und Mobilfunknetzwerken. Die hohen Investitionen der ITK-Netzbetreiber und die zahlreichen positiven Marktprognosen bescheinigen dem IMS eine bedeutende und erfolgreiche Zukunft. Das Besondere an diesem Projekt ist die Zusammenführung der beiden topaktuellen Open Source „State of the Art“-Lösungen für die praxisorientierte, wissenschaftliche Ausbildung der Studierenden und zum Wohle der Hochschule. Durch den Betrieb eines elektronischen Lern-Managementsystems mit integrierter Bildtelefonie- und Videokonferenzfunktion stände erstmals ein interaktives, echtzeitfähiges eLearning als Ergänzung der Hochschullehre bereit. 7 • Zusammenfassung und Ausblick Die besondere Herausforderung dieses Projektes ist es, dass Entsprechend des pragmatischen Ansatzes des Blended Learelektronische Lern-Managementsystem „Moodle“ um ein nings könnte der seminaristische Präsenzunterricht durch SIP-basiertes Bildtelefonie- und Videokonferenzsystem zu er- den Einsatz unterschiedlicher elektronischer Medien (wie Bildweitern. Dazu werden die beiden Open Source-Lösungen, das telefonie, Videokonferenz, Animationen, Simulationen, u.v.m.) Lern-Managementsystem Moodle einerseits und das IP Multi- ergänzt werden und den Lernenden somit ein effektiveres, media Subsystem (IMS Core) andererseits miteinander verei- selbstgesteuertes und optimiertes Lernen ermöglichen. Ausgesuchte Testfälle Sämtliche Testfälle werden ausschließlich mit Freeware bzw. Open Source Tools realisiert. Für die Paketanalyse wird das Tool „Wireshark“ [9] verwendet. Bei der Generierung von Traffic für Last- oder Performancetest wird das Open Source Tool „IMS Bench SIPp“ [10] eingesetzt. Beim Testen der Kommunikation wird das Verhalten der Clients jeweils bei einem Verbindungsaufbau und Verbindungsabbau analysiert. Anschließend kann dann eine Kommunikation zweier Clients über den Server durchgeführt und dabei ihr Verhalten geprüft werden. Bei Lasttests wird das Verhalten des Servers während einer großen Anzahl an parallelen Anmeldungen analysiert. Hierbei gilt es herauszufinden, wie viele parallele Kommunikationen der Server ohne Leistungseinbrüche bewältigen kann [15]. Test System IMS Abbildung 11 • Performance Test 60 08_hda_querschnitt_gesamt.indb 60 18.03.2008 16:08:34 Uhr Ein elektronisches Lern-Managementsystem mit integrierter Bildtelefonie- und Videokonferenzfunktion FACHBEREICH INFORMATIK You CAN get it... Hardware und Software für CAN-Bus-Anwendungen… Besuchen Sie uns Halle 12 Stand 512 Auftragsentwicklung in den Bereichen Kfz- und Industrietechnik Entwicklung und Vertrieb von Produkten für den CAN-Bus PEAK-System Technik GmbH — Otto-Roehm-Str. 69 — D-64293 Darmstadt / Germany Phone: +49-6151-817320 — Fax: +49-6151-817329 — Email: [email protected] www.peak-system.com Literatur • 1 http://www.sipknowledge.com /IMS_Specs.htm 2 http://www.3gpp.org / 3 http://www.abiresearch.com / abiprdisplay.jsp?pressid=660 4 http://www.goldmedia.com /aktuelles /info /news / hohes-potenzial-fuer-mobile-tv-weltweit /247.html 5 http://www.fokus.fraunhofer.de /ims 6 http://www.funkschau.de /heftarchiv /pdf /2007 /fs_0705 / fs_0705_s44-s46%20IMS.pdf 7 http://www.openimscore.org / 8 Ulrich Tick, Frank Weber: SIP, TCP /IP und Telekommunikationsnetze, Oldenbourg Wissenschaftsverlag 2005 9 http://www.wireshark.org 10 http://sipp.sourceforge.net /ims_bench 11 http://www.fh-liste.de 12 Tevetoglu, Seda: Konzept zur Erweiterung des elektronischen Lernmanagementsystems „Moodle“ um ein Videokonferenzsystem, Bachelorarbeit Hochschule Darmstadt, 2006 13 Din, George: Introduction to IMS Testing, Foliensatz IMSWorkshop, 2007 14 http://moodle.org /mod /forum /discuss.php?d=57028 15 Lambert, Maik: Aufbau und Betrieb eines Testnetzes zur Veranschaulichung der Abläufe von Voice over IP, Bachelorarbeit Hochschule Darmstadt, 2007 Kurzbiografie • Professor Dr. Michael Massoth, geb. 1966, studierte Mathematik und Physik an den Universitäten Frankfurt /Main und Bochum. Er promovierte am Max-Planck-Institut für Physik komplexer Systeme in Dresden. Danach arbeitete er sechs Jahre lang als Research Engineer, Senior System Designer und Projektmanager bei der Ericsson Eurolab Deutschland GmbH im Bereich Mobilfunk (GSM, GPRS, UMTS) in Herzogenrath. Im August 2005 erwarb er den MBA-Abschluss „Entrepreneurship“ am Aachen Institute of Applied Sciences. Seit September 2005 unterrichtet er an der Hochschule Darmstadt Telekommunikation, Wirtschaftsinformatik sowie Grundlagen der Informatik. Darüber hinaus ist er Koordinator für den allgemeinen Masterstudiengang Informatik. 61 08_hda_querschnitt_gesamt.indb 61 18.03.2008 16:08:38 Uhr QUERSCHNITT 22 EINFLUSS DER ANLASSINTENSITÄT AUF DIE MECHANISCHEN EIGENSCHAFTEN EINES BORLEGIERTEN MARTENSITISCHEN KAROSSERIESTAHLS Autoren • Professor Dr.-Ing. Mario Säglitz Fachbereich Maschinenbau und Kunststofftechnik, Hochschule Darmstadt, Professor Dr. George Krauss Advanced Steel Processing and Products Research Center, Colorado School of Mines und Cand.-Ing. Matthias Niegel Fachbereich Maschinenbau und Kunststofftechnik, Hochschule Darmstadt Elongation (%) 70 Ultra High Strength Steels (> 700 MPa) Low Strength High Strength Steels Steels (< 270 MPa) 60 Conventional HSS 50 IF AHSS 40 Mild 30 IF HS ISO BH TRIP CMn 20 HSLA DP, CP 10 MART 0 0 300 600 900 1200 1600 Tensile Strength (MPa) Abbildung 1 • Stahlsorten für die Verwendung im Karosseriebau [2] 62 08_hda_querschnitt_gesamt.indb 62 18.03.2008 16:08:38 Uhr Einfluss der Anlassintensität auf die mechanischen Eigenschaften FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK eines borlegierten martensitischen Karosseriestahls 1 • Einführung Die Karosserie stellt das wesentliche Strukturelement eines Fahrzeugs dar. Sowohl Konstruktion als auch Werkstoffauswahl entscheiden hier über wichtige Eigenschaften, wie z.B. Torsionssteifigkeit und Crash-Sicherheit. Nach wie vor wird als bevorzugter Karosseriewerkstoff Stahl verwendet. Dieser bietet wie kaum ein anderes Material die Möglichkeit, ein optimales Verhältnis zwischen Festigkeit und Zähigkeit bei gleichzeitig wirtschaftlicher Verarbeitbarkeit einzustellen. Infolge hoher Festigkeiten kann die Blechdicke gering gehalten werden, so dass hieraus auch ein geringes Karosserie-Gesamtgewicht resultiert. Vor diesem durchaus positiven Hintergrund unterlagen Karosseriestähle in den letzten beiden Jahrzehnten einer kontinuierlichen, ja teilweise sogar dramatischen Weiterentwicklung. Hierfür ursächlich waren ständig steigende Anforderungen hinsichtlich der • Reduzierung des Fahrzeuggewichts, • Verringerung des Kraftstoffverbrauchs, • Verbesserung der Abgasqualität, • Verbesserung der Korrosionsbeständigkeit und • Erhöhung der passiven Sicherheit. Auch verbesserte sich in diesem Zeitraum die Leistungsfähigkeit von Computern derart rasant, so dass mit ständig optimierten Softwareprodukten z.B. FEM-Analysen effizient durchgeführt werden konnten. Es war nun möglich, einen frühen Einblick in die tatsächlichen, lokalen Beanspruchungen einzelner Karosseriebereiche zu gewinnen. Folglich lag es nahe, die Gesamtkarosserie in Segmente mit unterschiedlichen Anforderungen an Festigkeit und Verformungsfähigkeit aufzuteilen und diese mit unterschiedlichen Stahlqualitäten zu realisieren. Vor diesem Hintergrund wurden in der Vergangenheit diverse Stahlsorten – speziell zugeschnitten auf die Bedürfnisse im Karosseriebau – neu entwickelt. Beispiele typischer Karosseriestähle sind [1]: • Mikrolegierte HSLA-Stähle (HSLA=High-Strength-Low-Alloy), • IF-Stähle (IF=Interstitial-Free), • DP-Stähle (DP=Dual-Phase) und • TRIP-Stähle (TRIP=Transformation-Induced Plasticity). Abbildung 1 vermittelt einen Eindruck bezüglich der Vielfalt der im Automobilbau zur Anwendung kommenden Stähle [2]. Deutlich ist die Gegenläufigkeit von Zugfestigkeit (Tensile Strength) und Bruchdehnung (Elongation) zu erkennen: Höhere Festigkeiten korrelieren in der Regel mit geringeren Duktilitätswerten. Abbildung 2 zeigt die Struktur der aktuellen Volvo V70-Rohkarosserie unter Angabe der verwendeten Stahlgüten. An diesem aktuellen Entwicklungsbeispiel lassen sich einige wesentlichen Vorteile der Diversifizierung von Karosseriestählen aufzeigen: Grundsätzlich bietet ein Materialmix die Möglichkeit, hohe Torsionssteifigkeiten mit geringem Gewicht zu verbinden. Ferner kann z.B. die Frontstruktur in unterschiedliche Zonen mit jeweils spezifischen Deformationseigenschaften aufgeteilt werden: Während sich im Falle eines Frontal-Crashs die vordere Zone des Fahrzeugs stark verformt, nimmt der Grad der Deformation mit zunehmender Annäherung an die steife Fahrgastzelle konsequent ab. Dies wird zum einen konstruktiv durch die Verwendung zusätzlicher Versteifungselemente im Bereich der Fahrgastzelle erreicht. Zum anderen kann werkstofftechnisch Einfluss genommen werden durch die Verwendung sorgfältig aufeinander abgestimmter Stahlsorten unterschiedlicher Festigkeitsgüten, wobei die Festigkeiten in Richtung zur Fahrgastzelle zunehmen. Abbildung 2 ist zu entnehmen, dass Volvo neben einem üblichen (relativ weichen) Karosseriestahl vier weitere Stahlsorten hoch- und höchstfester Güten verwendet [3]. 63 08_hda_querschnitt_gesamt.indb 63 18.03.2008 16:08:40 Uhr QUERSCHNITT 22 Abbildung 2 • Materialmix einer aktuellen Rohkarosserie am Beispiel des Volvos V70 [3] Diese Tendenz des Karosserie-Rohbaus mit zunehmendem Anteil an höherfesten Stählen ist typisch für aktuelle Fahrzeugentwicklungen. Mercedes z.B. gibt an, dass in der aktuellen C-Klasse (W204) ein quasi „erdrutschartiger Wandel“ weg von den konventionellen weichen Karosseriestählen hin zu hoch- und höchstfesten Stählen stattgefunden hat. Gegenüber dem Vorgängermodell sank der Anteil an weichen Stählen von 56 % auf nur noch 25 %. Stahl blieb dennoch das dominierende Material mit einem Anteil von ca. 70 % am Karosserierohbaugewicht, wenn auch überwiegend in Form von hoch- und höchstfesten Stählen mit einer Zugfestigkeit bis zu 1200 MPa [4]. Auch zukünftig werden sich durch technische Fortschritte weitere Verbesserungen auf dem Gebiet der Karosseriestähle ergeben [5]. Ein aktueller Ansatz, die kontinuierlich steigenden Anforderungen – insbesondere hinsichtlich Sicherheit und Gewichtsreduktion – zu erfüllen, ist der Einsatz höchstfester Stähle mit überwiegend martensitischem Gefüge. Diese Stähle weisen hohe Festigkeiten bei allerdings nur eingeschränkter Duktilität auf. Typische Bruchdehnungswerte entsprechender Stahlbleche liegen bei nur etwa 5 % [6,7]. Daher beschränken sich erste Anwendungen auf Teile, deren Fertigung nur eine geringe Verformbarkeit erfordert. Ein Beispiel hierfür sind Stoßstangen, die mittels Rollformen gefertigt werden. Aktuell wird auch das Heißpressen als Fertigungsverfahren genutzt: hiermit können Teile komplexerer Gestalt gefertigt werden [8]. Allerdings wird bei diesem Verfahren der martensitische Gefügezustand erst nach erfolgter Umformung durch Abschrecken im Presswerkzeug erreicht. Somit handelt es sich beim Heißpressen um ein eher kostenintensives Fertigungsverfahren. Der Einfluss des Anlassens gehärteter martensitischer Gefüge mit mittlerem Kohlenstoffgehalt auf die mechanischen Eigenschaften wurde in der Vergangenheit bereits umfangreich untersucht [9,10,11]. Dagegen wurde dem Anlassen von martensitischen Karosseriestählen mit geringem Kohlenstoffgehalt in der Literatur bisher nur wenig Aufmerksamkeit geschenkt: So untersuchte Okamoto in [6] einen Stahl mit niedrigem Kohlenstoffgehalt (C = 0,14 Masse-%) und zeigte, dass im gehärteten, nicht angelassenen Zustand hohe Festigkeiten bei jedoch nur moderater Duktilität erzielt werden können. Zugversuche an gehärteten Proben ergaben bei üblichen Dehnungsgeschwindigkeiten und 150 °C Versuchstemperatur nur eingeschränkte Bruchdehnungswerte infolge der Wirkung dynamischer Alterungsprozesse. Sehr niedrige Verformungsraten hingegen führten bei 150 °C bereits zu Bruchdehnungen von etwa 14 %, und dies bei einer dem gehärteten Zustand vergleichbaren Zugfestigkeit von bis zu 1500 MPa. Ursache hierfür sind erste anlassähnliche Gefügeumwandlungsprozesse, die offensichtlich bereits während der Versuchsdurchführung bei 150 °C stattgefunden haben. Dieses Beispiel verdeutlicht, dass unter bestimmten Randbedingungen durch Einbringung thermischer Energie die Duktilität gegenüber dem nur gehärteten Zustand – hier beträgt die Bruchdehnung nur etwa 5 % – signifikant auf wesentlich höhere Werte bei nur geringem Festigkeitsverlust gesteigert werden kann. 2 • Ziel des Projektes Ziel des aktuellen Projektes ist es daher, am Beispiel einer gängigen in der Automobilindustrie genutzten Stahlsorte systematische Anlassversuche an gehärteten Proben durchzuführen und letztere anschließend im Zugversuch auf deren mechanische Eigenschaften zu überprüfen. Es sollen hierdurch ggf. Zustände identifiziert werden, die sich gegenüber dem gehärteten Zustand durch höhere Duktilitätswerte bei möglichst nur geringen Festigkeitseinbußen auszeichnen. Auch sollen Anlasszustände aufgezeigt werden, die sich durch eine Versprödung des Gefüges von den übrigen Zuständen abgrenzen. Es wäre wünschenswert, wenn die Ergebnisse der vorliegenden Untersuchung dazu beitragen, zukünftig vermehrt komplexer geformte Karosseriekomponenten aus angelassenen martensitischen Stählen durch wirtschaftliche Kaltumformverfahren zu fertigen. 3 • Versuchsdurchführung Stähle mit niedrigem Kohlenstoffgehalt weisen eine geringe Härtbarkeit auf und sind daher häufig mit Elementen wie z.B. Mangan und Chrom legiert [1,6]. Stahlbleche enthalten vielfach 64 08_hda_querschnitt_gesamt.indb 64 18.03.2008 16:08:41 Uhr Einfluss der Anlassintensität auf die mechanischen Eigenschaften FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK eines borlegierten martensitischen Karosseriestahls Spannung (MPa) Anlasstemperatur (°C) 150 Anlassdauer (s) 1800 abgeschreckt 1600 175 200 250 350 460 520 TA= 150 °C 1400 1200 120 --- --- --- --- --- x --- 1000 600 x x x x x x x 800 3.600 x x x x x x x 600 36.000 x x x x x x x 175 °C 200 °C 250 °C 350 °C tA=1h 520° C 460 °C 400 0 2 4 6 8 10 12 Dehnung (%) Abbildung 3 • Spektrum der gewählten Anlasstemperaturen und -dauern Abbildung 4 • Zugversuchskennlinien nach dem Anlassen (1h) bei unterschiedlichen Temperaturen auch Bor-Zusätze zur Härtbarkeitssteigerung [12]. In diesem Projekt wird daher ein borlegierter Stahl mit einem Kohlenstoffgehalt von C = 0,22 Masse-% verwendet. Der Borzusatz beträgt 35 ppm. Weitere Zusätze sind Mangan (1,0 Masse-%) und Chrom (0,2 Masse-%). Es handelt sich hierbei um einen Stahl für die Serienfertigung von höchstfesten Karosseriekomponenten, der freundlicherweise von Severstal Inc. North America zur Verfügung gestellt wurde. Aus dem 1,7 mm dicken Blechmaterial wurden Zugversuchsproben entsprechend der ASTM Richtlinie E-8-82 gefertigt. Sämtliche Proben wurden bei 890 °C im Salzbad austenitisiert und anschließend in Wasser abgeschreckt. Das hierbei entstandene Härtungsgefüge wies eine Härte von ca. 50 HRC auf, was in guter Übereinstimmung mit Angaben in der Literatur ist [1]. Zur Untersuchung des Einflusses unterschiedlicher Anlassbedingungen wurden im weiteren Verlauf Anlassbehandlungen zwischen 150 °C und 520 °C bei Anlassdauern zwischen 2 Minuten und 10 Stunden durchgeführt. Die konkret gewählten Parameter sind Abbildung 3 zu entnehmen; die Behandlungen wurden im Ölbad, im Salzbad bzw. im Ofen durchgeführt, wobei die gewählten Temperaturen den Bereich der ersten bis zur dritten Anlassstufe [13] umfassen. In Kombination mit den variierten Anlassdauern sollte es somit möglich sein, Zustände erhöhter Duktilität zu identifizieren und ggf. gegenüber Zuständen möglicher Versprödung (Tempered Martensite Embrittlement) abzugrenzen. über dem nur abgeschreckten Zustand geringfügig größere Bruchdehnungen auf, was einer grundsätzlichen – wenn auch nur geringen – Zunahme an Duktilität entspricht. Der maximale Duktilitätsgewinn ergibt sich im LTT-Bereich bereits nach einem Anlassen bei 150 °C und 10 Minuten, hier erhöht sich die Bruchdehnung um etwa 1 %. Interessanterweise weisen im LTT-Bereich die mechanischen Eigenschaften eine nur geringe Abhängigkeit von der Anlassdauer auf: Bei gewählten Zeitdauern zwischen 10 Minuten und 10 Stunden schwanken die resultierenden Bruchdehnungen nur um 0,5 %. Auch ist hervorzuheben, dass sich die größte Bruchdehnung bereits nach kürzester Anlassdauer von nur 10 Minuten einstellt. Gleichzeitig ist hierbei der Festigkeitsrückgang minimal, so dass eben dieser Anlasszustand (150 °C / 10 Minuten) das Optimum im LTT-Bereich darstellt: Während der ersten Anlassstufe bildet sich hier rasch ein Gefügezustand aus, der sich durch eine hohe Zugfestigkeit von etwa 1600 MPa und eine Bruchdehnung von über 7 % auszeichnet. Da der Kohlenstoffgehalt des untersuchten Stahls mit 0,22 Masse-% in der Größenordnung der in der Literatur genannten Mindestgrenze für die Bildung von Übergangskarbiden liegt (0,2 Masse % in [13], 0,25 Masse-% in [14], werden sich folglich auch nur wenig Übergangskarbide (ε- und η-Karbide) beim Anlassen zwischen 150 °C und 200 °C gebildet haben. Der überwiegende Teil der im Martensit gelösten Kohlenstoffatome wird diesem Szenario zufolge energiegünstiger in der Nähe von Versetzungen eingelagert sein [1]. Die ohnehin nur geringe tetragonale Verzerrung des Martensits würde nur wenig abnehmen. Andere Autoren berichten hingegen von Ergebnissen röntgenografischer Feinstrukturuntersuchungen, die darauf hindeuten, dass die Tetragonalität und damit der Gehalt an im Martensit gelösten Kohlenstoff systematisch während der ersten Anlassstufe absinkt, bis der kubische Zustand der Matrix erreicht ist [15,16]. In diesem zweiten Szenario würden folglich mehr Übergangskarbide im Martensit ausgeschieden werden. Allerdings wäre wegen des niedrigen Kohlenstoffgehalts des vorliegenden Stahls auch diese Menge an Karbiden nur gering. Folglich ändern sich in vorliegender Untersuchung die mechanischen Eigenschaften des Martensits durch ein 4 • Ergebnisse / Diskussion Im folgenden wird über erste Ergebnisse der noch laufenden Studie berichtet. Am Beispiel der für eine Stunde angelassenen Proben zeigt Abbildung 4 typische Spannungs-Dehnungs-Verläufe. Deutlich zu erkennen ist, dass – wie zu erwarten – mit zunehmender Anlasstemperatur grundsätzlich eine Abnahme der Zugfestigkeit einhergeht. Dieser Festigkeitsrückgang ist für niedrige Anlasstemperaturen zwischen 150 °C und 200 °C – im Bereich des LTT (= Low Temperature Tempering) – allerdings nur relativ gering ausgeprägt. Hier sinkt die Zugfestigkeit von ca. 1710 MPa (abgeschreckt) auf Werte um etwa 1500-1600 MPa. Gleichzeitig weisen alle LTT-Proben gegen- 65 08_hda_querschnitt_gesamt.indb 65 18.03.2008 16:08:43 Uhr QUERSCHNITT 22 Literaturangaben (martensitische Karosseriestähle) Zugfestigkeit (MPa) Zugfestigkeit (MPa) 1800 TA : Anlasstemperatur abgeschreckt 1800 1600 1500 1400 TA = 150–350 °C 1200 1200 TA = 460 °C 1000 900 Lieferzustand 800 TA = 520 °C 600 600 0 5 10 15 Bruchdehnung (%) 5000 7000 9000 11000 13000 15000 T [K] * (11,8+[s]) Abbildung 5 • Korrelation zwischen Zugfestigkeit und Bruchdehnung nach dem Härten und Anlassen Abbildung 6 • Zugfestigkeit als Funktion des Anlassparameters Anlassen bei niedrigen Temperaturen weitaus weniger, als es z.B. bei einem Stahl mit höherem Kohlenstoffgehalt der Fall wäre. Auch ist in diesem Zusammenhang sicherlich von Bedeutung, dass ein Stahl mit niedrigem Kohlenstoffgehalt eine hohe Martensit-Start-Temperatur aufweist, so dass bereits beim Abschrecken • Erholungsprozesse bzgl. der bei der Martensitbildung entstandenen Versetzungen stattfinden (Bemerkung: Infolge einer nur gering ausgeprägten Anpassverformung bei Stählen mit niedrigem Kohlenstoffgehalt entstehen bei der Martensitbildung weniger Versetzungen als bei Stählen mit höherem Kohlenstoffgehalt), • Kohlenstoffatome zu Versetzungen diffundieren und • erste Übergangscarbide entstehen. Über das Bestreben der Kohlenstoffatome, je nach Randbedingungen im Martensit gelöst zu bleiben, sich an Versetzungen anzuordnen (Segregation) oder aber Übergangskarbide zu bilden, wird umfangreich in der Literatur berichtet [17-21]. Grundsätzlich zeigt vorliegende Untersuchung, dass bis zu einer Anlasstemperatur von 350 °C ein nur moderater Festigkeitsrückgang stattfindet. Da in gleichem Maße (ab 175 °C) jedoch auch die Bruchdehnung abnimmt, legt dies die Vermutung nahe, dass Versprödungseffekte das Gefüge negativ beeinflussen. Derartige Gefügeversprödungen sind aus der Literatur bekannt. Sie werden u.a. als „300 °C-Versprödung“ [22] oder auch als „Tempered Martensite Embrittlement (TME)“ [1] bezeichnet. Diese Art der Versprödung tritt häufig im Temperaturbereich zwischen 200 °C und 400 °C auf und ist auf erste Zementitausscheidungen und /oder Phosphorausscheidungen auf ehemaligen Austenitkorngrenzen zurückzuführen [1]. Der Phosphorgehalt des untersuchten Stahls beträgt ca. 0,01 %, so dass in vorliegendem Material vermutlich erste Zementit- und auch Phosphorausscheidungen am Rückgang der Duktilität beteiligt sind. Anlasstemperaturen oberhalb 350 °C – in vorliegender Untersuchung 460 °C und 520 °C – führen im Zugversuch zu einem stark ausgeprägten Festigkeitsverlust. Der Festigkeitsrückgang korreliert hier – anders als bei geringeren Anlassinten- sitäten – mit einer signifikanten Zunahme der Bruchdehnung, allerdings erst ab 460 °C / 10h. Das Anlassen in diesem Temperaturbereich der 3. Anlassstufe ergibt Zugfestigkeiten zwischen 820 MPa und 1130 MPa. Die höheren Festigkeitswerte korrespondieren noch mit geringen Bruchdehnungswerten um 6,3 %, die niedrigeren Festigkeitswerte mit Bruchdehnungswerten bis 12,5 %. Das Anlassen bewirkt hier die Einstellung eines Gleichgewichtsgefüges aus Zementit und Ferrit sowie bereits eine Einformung, d.h. Koagulation der Zementitteilchen [13]. Abbildung 5 zeigt zusammenfassend die in vorliegender Untersuchung erzielten Zugfestigkeiten als Funktion der zugehörigen Bruchdehnungen. Ergänzend zu obigen Ausführungen ist darauf hinzuweisen, dass der Anlasstemperatur von 460 °C offensichtlich eine besondere Rolle zukommt: Es handelt sich hierbei um die einzige Temperatur dieser Studie, bei der das Variieren der Zeitdauer (2 Minuten bis 10 Stunden) zu einem breiten Wertespektrum der Festigkeit und Bruchdehnung führt: Die Spannweite der Paarung Zugfestigkeit /Bruchdehnung reicht hier von 1150 MPa / 6,3 % bis 910 MPa / 9,8 %. Hierbei handelt es sich im wesentlichen nicht um systematische Variationen, sondern vielmehr um signifikante Streuungen der Ergebnisse. Auch die hier gewählte minimale Anlassdauer von 2 Minuten (sonst 10 Minuten) ist nicht primär ursächlich für dieses Verhalten. Letztere wurde gewählt, um den Einfluss eines Tauchbadverzinkens (ca. 460 °C / wenige Minuten) auf die mechanischen Eigenschaften eines martensitischen Karosseriestahls zu simulieren: Den Ergebnissen ist zu entnehmen, dass eine derartige Anlassintensität offensichtlich bereits genügt, die Zugfestigkeit von ca. 1700 MPa (abgeschreckt) auf Werte zwischen 980 MPa und 1130 MPa drastisch zu verringern. Auch die Streuung der zugehörigen Bruchdehnungen ist beträchtlich, hier reichen die Werte von 6,3 % - 8,1 %. Offensichtlich ist bei dieser Temperatur der Martensit bestrebt, rasch in das Gleichgewichtsgefüge aus Zementit und Ferrit umzuwandeln. Mit zunehmender Anlassdauer wird in diesem Temperaturbereich vermutlich der Zementit auch bereits vergröbern. Diese Prozesse laufen diffusionsgesteuert ab und werden in starkem Maße beeinflusst von der im Mikrogefü- 66 08_hda_querschnitt_gesamt.indb 66 18.03.2008 16:08:44 Uhr Einfluss der Anlassintensität auf die mechanischen Eigenschaften FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK eines borlegierten martensitischen Karosseriestahls 1600 2000 Zugfestigkeit abgeschreckt Dehn- bzw. Streckgrenze 1600 1400 1200 1200 800 1000 400 800 0 600 zunehmende Anlasstemperatur angelassen bei TA = 150 °C–520 °C Spannung (MPa) Festigkeit (MPa) tA = 1h 100 200 300 400 500 600 Anlasstemperatur (°C) Abbildung 7 • Festigkeitskennwerte (Zugversuch) nach dem Anlassen ge vorliegenden Kohlenstoffverteilung. Bei 460 °C wird daher – insbesondere bei nur kurzen Anlasszeiten – ein entsprechendes Mischgefüge aus Martensit, Ferrit, Übergangskarbiden und Zementit vorliegen, bei langen Anlassdauern dagegen ein ferritisches Gefüge mit teils groben Zementitteilchen. Die Reproduzierbarkeit dieser Gefügezustände erscheint somit schwieriger als bei den anderen gewählten Anlasstemperaturen, so dass hieraus folglich eine größere Streuung der mechanischen Eigenschaften resultiert. Die Kombination unterschiedlicher Anlasstemperaturen und Anlassdauern in vorliegender Untersuchung ermöglicht das Auftragen der Zugfestigkeit als Funktion eines Anlassparameters der Form T*(C+logt), der erstmalig von Holloman und Jaffe [23] eingeführt wurde. Er berücksichtigt den Umstand, dass beim Anlassen grundsätzlich beide Variablen, Temperatur und Zeit, gegeneinander tauschbar sind, die Temperatur allerdings eine durchgreifendere Wirkung aufweist. In Abbildung 6 ist die Zugfestigkeit des untersuchten borlegierten Karosseriestahls als Funktion des Holloman-Jaffe-Parameters dargestellt. Es wurde hierzu – wie in [9] zur Optimierung der Regressionslinien – die Konstante C zu 11,8 gewählt. Deutlich ist der kontinuierliche Rückgang der Festigkeit mit zunehmender Anlassintensität zu erkennen. Die Beziehung kann im Bereich der ersten Anlassstufe als annähernd linear beschrieben werden, die Werte für die zweite und dritte Anlassstufe weisen größere Streuungen auf. Mit Zunahme der Anlassintensität überwiegt die Wirkung der effektiven Länge kohlenstofffreier Versetzungssegmente auf die Verformungsverfestigung: Mit einsetzender Vergröberung der Übergangskarbide und schließlich deren Ersatz durch größere Zementitteilchen [25] nimmt die Länge freier Versetzungssegmente zu. Dieser Prozess wird bei höheren Anlasstemperaturen über die Vergröberung der Zementitteilchen fortgesetzt. Hierdurch verringern sich die Fließspannungen [26], was wiederum einen kontinuierlichen Rückgang der Festigkeit zur Folge hat. Innerhalb der ersten Anlassstufe nehmen die Werte der Dehngrenze mit steigender Anlassintensität leicht zu (Abbildung 7). Dieses resultiert vermutlich aus einem erholungsbedingten Abbau kohlenstofffreier Versetzungen im Martensit und einer 0 0,3 0,6 0,9 1,2 1,5 Dehnung (%) Abbildung 8 • Änderung des Übergangs von elastischer zur plastischen Ver formung mit zunehmender Anlasstemperatur (Dehngrenze → Streckgrenze) zunehmenden Dichte an Übergangscarbiden. Letzterer Prozess wird – wie bereits oben ausgeführt – nur gering ausgeprägt sein, da der Kohlenstoffgehalt des untersuchten Stahls nur 0,22 Masse-% beträgt. Abbildung 7 ist zusätzlich zu entnehmen, dass bei höheren Anlasstemperaturen die Dehngrenze, bzw. dann Streckgrenze, niedrigere Werte aufweist. Dies ist auf die • Bildung und Vergröberung von Zementitteilchen, • kontinuierlich ablaufende Erholungsvorgänge in der martensitischen Matrix und schließlich • die Umwandlung von Martensit in Ferrit zurückzuführen. Mit steigender Anlasstemperatur tragen ferner die zunehmend homogenere Matrixstruktur und die größeren Abstände der Karbidteilchen zu einem Rückgang der Verformungsverfestigung und folglich auch zu einem Rückgang der Zugfestigkeit bei (Abbildung 4). Abbildung 8 zeigt einen Ausschnitt von Zugversuchsverläufen am Übergang vom elastischen in den plastischen Verformungsbereich. Die Gestalt dieses Übergangs wandelt sich mit zunehmender Anlassintensität von einer Dehngrenze in eine Streckgrenze. Bereits ab einer Anlasstemperatur von 175 °C bildet sich bei längerer Anlassdauer (10h) erstmalig eine Streckgrenze mit geringer Lüdersdehnung aus (Abbildung 9). Die Ausprägung der Streckgrenze, d.h. der Betrag der Lüdersdehnung, zeigt eine eindeutige Abhängigkeit von der Anlasstemperatur (Abbildung 10): Höhere Temperaturen resultieren in längeren Lüdersdehnungen. Im Bereich zwischen 175 °C und 350 °C kann diese Beziehung gut linear angenähert werden. Interessanterweise zeigt sich auch beim Aspekt Lüdersdehnung bei 460 °C eine Besonderheit: Ein Anlassen bei dieser Temperatur führt auch hier infolge des ausgeprägten Potenzials an Gefügeumwandlungsprozessen zu einer großen Streubreite der gemessenen Werte. Bei Betrachtung des Einflusses der Lüdersdehnung auf die Zugfestigkeit zeigt sich eine eindeutige Beziehung: Zunehmende Werte der Lüdersdehnung führen zu geringeren Zugfestigkeitswerten. Diese Abhängigkeit weist interessanterwei67 08_hda_querschnitt_gesamt.indb 67 18.03.2008 16:08:46 Uhr QUERSCHNITT 22 Spannung (MPa) Lüdersdehnung (%) 1500 1h 5 tA = 10 min 1400 4 10 h max. Spannweite bei TA = 460 °C 1300 3 1200 2 1100 1 TA = 175 °C 1000 0 0 0,5 1 1,5 2 Dehnung (%) 0 200 400 600 Anlasstemperatur (°C) Abbildung 9 • Beginn der Ausbildung einer Streckgrenze bereits nach 10h Anlassen bei 175 ˚C Abbildung 10 • Abhängigkeit der Lüdersdehnung von der Anlasstemperatur se eine lineare Abhängigkeit auf (Abbildung 11). Gleichzeitig verringert sich mit zunehmender Lüdersdehnung die Differenz zwischen Zugfestigkeit und Streckgrenze, was einer abnehmenden Intensität der Verformungsverfestigung im plastischen Dehnungsbereich entspricht. Ab einer Anlasstemperatur von ca. 400 °C findet keine merkliche Verformungsverfestigung mehr statt (Abbildung 7). Offensichtlich ist dann die Anzahl an Versetzungshindernissen (im wesentlichen feindispers verteilte Karbide) zu gering, um hier mit fortschreitender plastischer Verformung eine Erhöhung des Verformungswiderstandes zu bewirken. Auch scheint hier während der plastischen Verformung keine ausgeprägte Versetzungsvervielfachung und hiermit einhergehende Versetzungsbewegungsbehinderung stattzufinden. Abschließend ist in Abbildung 12 die Zugfestigkeit als Funktion der Härte dargestellt: Während für den Bereich der Anlasstemperaturen zwischen 150 °C und 350 °C eine lineare Abhängigkeit zu erkennen ist, ist dies infolge der großen Streuung der Werte bei 460 °C nicht mehr der Fall. Auch die Werte bei 520 °C weisen keinen eindeutig linearen Charakter auf. Festigkeit sinkt gleichzeitig die Bruchdehnung. Erst bei noch höheren Anlassintensitäten stellen sich signifikant größere Bruchdehnungen ein. Diese erreichen bei einer Anlasstemperatur von 520 °C Werte bis etwa 12,5 % bei einer Zugfestigkeit von immerhin noch 820 MPa. Der Anlasstemperatur von 460 °C kommt eine besondere Bedeutung zu: Bereits wenige Minuten bedeuten für die Zugfestigkeit ein Verlust von bis zu ca. 40 % gegenüber dem martensitischen Zustand. Vor diesem Hintergrund erscheint ein Tauchbadverzinken für martensitische Karosseriebleche nicht geeignet. Auch treten bei den 460 °C-Proben die größten Streubreiten der Zugfestigkeits- und Bruchdehnungswerte auf. Offensichtlich finden bei dieser Temperatur ausgeprägt Gefügeumwandlungs- und Teilchenvergröberungsprozesse statt. Zur weiteren Diskussion der Ergebnisse sind Gefügeuntersuchungen am Licht- und Elektronenmikroskop erforderlich. Diese sind in einer späteren Phase des Projektes vorgesehen. Auch die Bewertung weiterer Einflussgrößen auf die mechanischen Eigenschaften (z.B. Probentemperatur und Dehnungsgeschwindigkeit im Zugversuch) bleibt einer möglichen späteren Phase des Projektes vorbehalten. 5 • Zusammenfassung / Ausblick In der vorgestellten Studie wird die grundsätzliche Eignung angelassener martensitischer Stähle für eine Kaltumformung eher komplex geformter Karosseriekomponenten beleuchtet. Zum Auffinden von Gefügezuständen hoher Festigkeit bei gleichzeitig hoher Duktilität wurden systematische Anlassversuche an gehärteten Proben eines gängigen borlegierten Karosseriestahls durchgeführt und anschließend die mechanischen Eigenschaften im Zugversuch ermittelt und bewertet. Die bisherigen Auswertungen zeigen, dass durch ein Anlassen bei niedrigen Temperaturen die Duktilität gegenüber dem gehärteten Zustand – bei nur mäßigem Verlust an Zugfestigkeit – leicht angehoben werden kann. Die gemessenen Bruchdehnungen von ca. 7 % liegen oberhalb der in der Literatur genannten Angaben von etwa 5 %. Die Zugfestigkeit beträgt hier immerhin noch bis etwa 1600 MPa. Ein Anlassen bei höheren Temperaturen bis ca. 350 °C führt zu Versprödungseffekten im Gefüge, d.h. mit abnehmender 68 08_hda_querschnitt_gesamt.indb 68 18.03.2008 16:08:47 Uhr Einfluss der Anlassintensität auf die mechanischen Eigenschaften FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK eines borlegierten martensitischen Karosseriestahls Zugfestigkeit (MPa) 1800 TA = Anlasstemperatur Lüdersdehnung (%) 1600 1 Anlasstemperaturen: 175 °C – 350 °C 1400 TA = 150 °C – 350 °C 0,8 1200 0,6 1000 0,4 TA = 460 °C 800 0,2 TA = 520 °C 600 0 1000 1200 1400 1600 1800 20 30 40 50 60 Zugfestigkeit (MPa) Härte HRC Abbildung 11 • Ausbildung einer linearen Beziehung zwischen Lüdersdehnung und Zugfestigkeit bei Anlasstemperaturen von 175 °C bis 350 °C Abbildung 12 • Korrelation zwischen Zugfestigkeit und Härte nach dem Härten und Anlassen Literatur • 1 G. Krauss: Steels - Processing, Structure, and Performance. ASM International, Materials Park, Ohio, 2005 2 C. D. Horvath: The Future Revolution in Automotive High Strength Steel Usage. Great Designs in Steel 2005, Seminar, February 18, 2004 3 R. Danisch: Technik-Porträt Volvo V70. Automobiltechnische Zeitschrift ATZ 11 (2007), S.1036-1038 4 K.-P. Claar: Mit weichen Stählen kommen wir heute nicht weiter. Interview, Automobiltechnische Zeitschrift ATZ 10 (2007), S.952-953 5 D.K. Matlock und J.G. Speer: Design Considerations for the Next Generation of Advanced High Strength Sheet Steels. Proceedings of the 3rd International Conference on Structural Steels, H.C. Lee (Hrsg.), The Korean Institute of Metals and Materials, Seoul, Korea, 2006, S.774-781 6 Shoji Okamoto: Strain Rate and Temperature Effects on Deformation Behavior and Mechanical Properties of AsQuenched Low-Carbon Martensite. M.S. Thesis, Colorado School of Mines, 1990 7 http//www.mittalsteel.com /Products/ Automotive+Applications /Martensitic+Steels, 23.12.2007 8 J. Faderl und R. Vehof: Press Hardening Steel (PHS): A new Coating and Process Technology. Proceedings of the International Conference on Steels in Cars and Trucks, Wiesbaden, Germany, Verlag Stahleisen GmbH, Düsseldorf, 2005 9 M. Säglitz und G. Krauss: Eigenschaften von bei niedrigen Temperaturen angelassenen SAE-43xx-Stählen. HärtereiTechnische Mitteilungen HTM 52 (1997) 5, S. 261, 271-280 10 M. Säglitz und G. Krauss: Deformation, Fracture and Mechanical Properties of Low-temperature-tempered Martensite in SAE 43xx Steels. Metallurgical and Materials Transactions A, Vol 28A, 1997, S.377-387 11 M. Saeglitz und G. Krauss: Effect of Time and Temperature on the Properties of High Strength Hardened Steels. Proceedings of „The 6th International Seminar of IFHT”, Kyongju, South Korea, Korean Society for Heat Treatment, Oktober 1997, S.316-323 12 S. K. Banerji und J.E.Morral (Hrsg.): Boron in Steel. TMSAIME, Warrendale, PA, 1980 13 E. Macherauch: Praktikum in Werkstoffkunde. Vieweg Verlag, Braunschweig / Wiesbaden, 9.Auflage, 1990 14 C.S. Roberts, B.L Averbach und M. Cohen: The Mechanism and Kinetics of the First Stage of Tempering. Trans. ASM 45 (1953), S.576-604 15 V.G. Veeraraghavan und P.G. Winchell: 200, 020, and 002 X-ray Peaks in Tempered Fe-18Ni-C Martensites. Metall. Trans. 6A (1975), S.701-705 16 E. Hanke: Erklärung der Anlasswirkung in gehärteten Stählen durch den Snoek- und Cottrell-Effekt. Zeitschrift für Wirtschaftliche Fertigung 64 (1969) 12, S.634-646 17 D.V. Wilson: Effects of Plastic Deformation on Carbide Precipitation in Steel. Acta Metall. 5 (1957), S.293-302 18 E.T. Stephenson und M. Cohen: The Effect of Prestraining and Retempering on AISI Type 4340. Trans. ASM 54 (1961), S.72-83 19 D. Kalish und M. Cohen: Structural Changes and Strengthening in the Strain Tempering of Martensite. Materials Science and Engineering 6 (1970), S.156-166 20 H. Gleiter: Die Formänderung von Ausscheidungen durch Diffusion im Spannungsfeld von Versetzungen. Acta Met. 16 (1968), S. 455-464 21 H. Gleiter: Ausseidungshärtung durch Diffusion im Spannungsfeld einer Versetzung. Acta Met. 16 (1968), S.857-862 22 H.J. Eckstein: Technologie der Wärmebehandlung von Stahl. VEB Deutscher Verlag für Grundstoffindustrie, Leipzig, 2.Auflage, 1977 23 J.H. Holloman und L.D. Jaffe: Time-Tempering Relations in Tempering Steels. Transactions, American Institute of Mining and Metallurgical Engineers 162 (1945), S.223-249 69 08_hda_querschnitt_gesamt.indb 69 18.03.2008 16:08:48 Uhr QUERSCHNITT 22 24 H.-C. Lee und G. Krauss: Interlath Carbide Transitions in Martensitic Medium-Carbon Steels Tempered Between 200 °C and 300 °C. Gilbert R. Speich Symposium Proc., ISS, G. Krauss und P.E Repas (Hrsg.), Warrendale, 1992, S.3943 25 D. Kuhlmann-Wilsdorf: Theory of Workhardening 19341984. Metall. Trans. 16A (1985), S.2091-2108 Kurzbiografien • Prof. Dr.-Ing. Mario Säglitz, Jahrgang 1962. Maschinenbaustudium an der TU Berlin von 1981-1988. Anschließend wissenschaftlicher Mitarbeiter am Institut für Werkstofftechnik der TU Berlin und Promotion in 1994. Von 1994-1996 Dozent an der Staatlichen Technikerschule Berlin im Bereich Maschinenbau. 1995 und 1996 zwei von der DFG finanzierte Forschungsaufenthalte an der Colorado School of Mines in Colorado, USA. Forschungsthema: Härten und Anlassen (LTT) hochfester Stähle. Von 1996-2005 Projekttätigkeit im Bereich „Forschung und Entwicklung“ der Deutschen Bahn AG: Leitung von innovativen Projekten auf dem Gebiet der Onboard-Diagnostik und Instandhaltung von ICE-Zügen. Wesentliche Ergebnisse mündeten in diverse Patente. Von 2005-2006 Professor an der FHWT in Diepholz. Seit 2006 Professor an der h_da im Fachbereich Maschinenbau und Kunststofftechnik. Fachgebiet: Werkstofftechnik. urgie und seit 1997 Emeritus Professor. Von 1984-1993 erster Direktor des von ihm mit gegründeten industrienahen „Advanced Steel Processing and Products Research Center“ an der School of Mines. Von 1989-1991 Präsident der „International Federation of Heat Treatment and Surface Engineering (IFHTSE)” und von 1989-91 Präsident der „ASM International”. Autor und Co-Autor von Fachbüchern und zahlreichen Publikationen. Ehrung durch diverse internationale Auszeichnungen. Cand.-Ing. Matthias Niegel, Jahrgang 1981. 2001 Abitur in Darmstadt. 2002 und 2003 Durchführung sozialer Projekte in Indien. Seit 2003 Maschinenbaustudium an der h_da. Aktuell Anfertigung der Diplomarbeit auf dem Gebiet der Werkstofftechnik zum Thema: „Untersuchungen zum Einfluss der Anlassintensität auf die mechanischen Eigenschaften eines borlegierten Karosseriestahls“. Acknowledgement • Dieses Forschungsprojekt wurde mit freundlicher Unterstützung des Zentrums für Forschung und Entwicklung der h_da (zfe) und dem Advanced Steel Processing and Products Research Center (ASPPRC), einer von Universität und Industrie getragenenen Forschungseinrichtung an der Colorado School of Mines, durchgeführt. Der für die Proben verwendete Stahl wurde freundlicherweise von Fa. Severstal North America, Inc. zur Verfügung gestellt. Prof. Dr. George Krauss, Bachelorstudium der Werkstoffwissenschaften /Metallurgie an der Lehigh University, USA. Anschließend Masterstudium und Promotion auf dem Gebiet der Metallurgie am Massachusetts Institute of Technology, USA (M.S. 1958 und Sc.D. 1961). Von 1962-1963 Forschungsaufenthalt in Deutschland am Max Planck Institut für Eisenforschung in Düsseldorf. Von 1963-1975 Assistant Professor, Associate Professor und Professor für Metallurgie und Werkstoffwissenschaften an der Lehigh University. 1975 Wechsel an die Colorado School of Mines /USA, Übernahme einer AMAX-Stiftungsprofessur im Fachgebiet Metallphysik, dann John-Henry-Moore Professor für Werkstoffwissenschaften und Metall70 08_hda_querschnitt_gesamt.indb 70 18.03.2008 16:08:50 Uhr ,QQRYDWLYH/|VXQJHQ für die pharmazeutische Produkt- und Packmittelkontrolle Wollen Sie mit uns erfolgreich sein? Motivierten, aufgeschlossenen Studenten bieten wir abwechslungsreiche und herausfordernde Tätigkeiten mit der Möglichkeit, interessante Projekte selbstständig oder im Team zu bearbeiten, und erstklassige Betreuung. Praktikantenstellen für Praxissemester Diplomarbeiten für Studierende der Fachrichtungen Informatik Elektrotechnik Bildverarbeitung 08_hda_querschnitt_gesamt.indb 71 scanware electronic GmbH Darmstädter Str. 9-11 64404 Bickenbach www.scanware.de Tel.: +49-(0)6257-9352-0 Fax: +49-(0)6257-9352-22 E-Mail: [email protected] 18.03.2008 16:08:50 Uhr QUERSCHNITT 22 ÜBER DIE STOKES-EINSTEINBEZIEHUNG FÜR FLUIDSYSTEME MIT DURCHDRINGBAREN TEILCHEN Autoren • Helge-Otmar May FB MK, Hochschule Darmstadt Peter Mausbach Fakultät 09, Fachhochschule Köln 1 • Abstrakt Die Stokes-Einstein-Beziehung, die einen Zusammenhang für die Diffusionskonstante, die Scherviskosität und die Temperatur eines Fluids herstellt, kann bei vielen Stoffen angewendet werden. Allerdings gibt es einige wichtige Ausnahmen. In dieser Arbeit wird das „Gaussian Core Model (GCM) Liquid“ betrachtet, eine eigentümliche Flüssigkeit, bei der die klassische Stokes-Einstein-Beziehung ebenfalls verletzt ist. Eine wesentliche Besonderheit dieser Flüssigkeit besteht darin, dass ihr Wechselwirkungspotential beschränkt ist. Aus dieser Eigenschaft ergeben sich einige thermodynamische Anomalien, die mit Hilfe von Computersimulationen untersucht wurden. Außerdem wird gezeigt, wie die StokesEinstein-Relation für Flüssigkeiten mit beschränktem Wechselwirkungspotential erweitert werden kann. 72 08_hda_querschnitt_gesamt.indb 72 18.03.2008 16:08:50 Uhr Über die Stokes-Einstein-Beziehung für Fluidsysteme mit durchdringbaren Teilchen FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK 2 • Einleitung Viele Eigenschaften realer Flüssigkeiten wie z.B. von Wasser konnten erst mit Hilfe von molekulardynamischen Simulationen gefunden und aufgedeckt werden. Will man das Verhalten von Flüssigkeiten in einer Richtung beeinflussen, so geht dies nur, wenn man weiß, wie sich bestimmte Bedingungen der Wechselwirkungspotentiale auf die makroskopischen Eigenschaften auswirken. Es besteht deshalb die Notwendigkeit, Modellflüssigkeiten zu untersuchen. Eine solche wichtige Modellflüssigkeit ist das „Gaussian Core Model (GCM) Liquid“ [1-6], dessen Bedeutung im Bereich der Polymerchemie bereits erkannt wurde [7-9]. Dadurch, dass dieses Potential beschränkt ist, wird ein gegenseitiges Durchdringen der Teilchen möglich und dies führt zu einigen Eigenschaften, die sich von „normalen Flüssigkeiten“ unterscheiden. Da es keinen Anziehungsterm im Wechselwirkungspotential gibt, ist z.B. kein Gas-Flüssig-Übergang möglich. Diese Systeme sind in den letzten Jahren Gegenstand intensiver Forschung im Bereich der weichen kondensierten Materie geworden, da sie zur Modellierung verschiedenster Polymersysteme genutzt werden können, d.h. das GCM wird als effektives Modellpotential für solche Molekülsysteme, die aus Tausenden von Atomen bestehen können, verwendet [10]. Eine wichtige Eigenschaft „normaler“ Flüssigkeiten ist die Gültigkeit der Stokes-Einstein-Beziehung (SE-Beziehung): Im Jahre 1905 publizierte Einstein [11] diese Beziehung zwischen der Diffusionskonstanten D, der Scherviskosität η und der Temperatur T eines Fluides unter der Annahme, dass die dif73 08_hda_querschnitt_gesamt.indb 73 18.03.2008 16:08:51 Uhr QUERSCHNITT 22 P' P' a) b) 114.28 100.46 11.196 87.53 9.071 75.49 64.33 7.169 54.07 44.70 5.489 11.117 4.032 9.007 36.22 113.92 100.13 87.22 75.20 64.08 53.84 44.50 36.04 28.48 21.80 16.02 11.12 7.115 28.63 5.446 4.000 21.93 2.775 2.799 1.788 1.772 1.001 0.987 0.437 0.421 0.101 16.12 11.20 0.080 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 T' T' Abbildung 1 • Druck als Funktion der Temperatur für verschiedene Isochoren. Die Symbole kennzeichnen die simulierten Phasenpunkte, die durchgezogenen Linien stellen die Isochoren der Zustandsgleichung dar. a) Dichte von 6,4 bis 2,0 in Schritten von 0,4 von oben nach unten, b) von 2,0 bis 0,2 in Schritten von 0,2 von oben nach unten. fundierenden Teilchen sehr viel größer als die Teilchen der umgebenden Flüssigkeit sind: Dη (1) =S, T wobei S eine Konstante ist. Zur Herleitung der Relation benutzte er die Stokes-Lösung zur Berechnung der Widerstandskraft einer Kugel in einer Flüssigkeit. Diese Beziehung (1) ist sehr allgemein gültig und wird erfolgreich bei der Bestimmung der Diffusionskonstanten angewendet [12]. Trotzdem sind verschiedene Situationen bekannt, bei denen die Stokes-Einstein-Relation versagt. Hierzu zählen z.B. superfluides Helium, bei dem die Viskosität verschwindet, wenn sich die Temperatur dem absoluten Nullpunkt nähert, oder auch fragile Flüssigkeiten in der Nähe des Glasüberganges [13]. Jüngste Messungen an unterkühltem Wasser in Nanoporen haben gezeigt, dass eine Verletzung der SE-Relation auch weit oberhalb des Glasüberganges möglich ist [14]. Es wurde vermutet, dass hierfür das Überschreiten der Widom-Linie verantwortlich ist [15]. Eine hiervon sehr unterschiedliche Situation tritt bei Flüssigkeiten mit beschränkter intermolekularer Wechselwirkung auf. Es zeigt sich hier am Beispiel des GCM-Liquids, dass die klassische SE-Beziehung ebenfalls nicht gilt [16]. Nachdem hier kurz einige thermodynamische Eigenschaften des GCM skizziert werden, sollen danach die Transportkoeffizienten betrachtet werden. Basierend auf einem hydrodynamischen Modell wird sodann eine Korrektur für die SE-Relation bei Flüssigkeiten mit beschränkter Wechselwirkung dargestellt, die auf das GCM-Liquid angewendet werden kann. 3 • Thermodynamische Eigenschaften Das GCM-Potential lautet (2) Φ(rij) = Φ0exp[-(rij / σ)2], wobei rij der Abstand zweier Teilchen i und j ist, Φ0 und σ sind die Höhe und Breite des Wechselwirkungspotentials. Φ0,σ und √mσ2 / Φ0 haben die Dimension von Energie, Länge und Zeit (m ist die Masse eines Teilchens). Dies führt zu dimensionslosen Einheiten T' = kBT / Φ0, ρ' = Nσ3/ L3B und p' = ρσ3 / Φ0 für die Temperatur, die Dichte und den Druck (kB ist die Boltzmann-Konstante und LB ist die Länge der periodischen Simulationsbox). Für die Berechnung des ziemlich dichten pVT-Phasendiagramms wurden Standard-NVT-Monte-Carlo(MC)-Simulationen mit N = 1728 Teilchen durchgeführt, weil diese in der Regel schneller als molekulardynamische (MD) Berechnungen sind. In der Abbildung 1a und 1b ist der Druck als Funktion der Temperatur bei konstanter Dichte dargestellt. Für die Berechnung der Ableitungen ist ein analytischer Ausdruck sehr nützlich. Wie man aus den Abbildungen erkennt, hängt der Druck sehr viel stärker von der Dichte als von der Temperatur ab. Deswegen gelang es nicht, einen einzigen Ausdruck als Zustandsgleichung (siehe [17, 18]) zu erstellen. Die ρ'-T' -Ebene musste in zwei Bereiche unterteilt werden: Im unteren Bereich für ρ' < 2 wurde die Gleichung (3) 8 8 ρ'(ρ', T') = ∑∑αij ρ' iT' j i=1 j=1 verwendet mit den Ansatzparametern αij . Dieser einfache Ansatz war im oberen Bereich nicht erfolgreich. Hier wurde für ρ' > 1.6 der Druck bei konstanter Temperatur gemäß 74 08_hda_querschnitt_gesamt.indb 74 18.03.2008 16:08:52 Uhr Über die Stokes-Einstein-Beziehung für Fluidsysteme mit durchdringbaren Teilchen FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK α'P P' 5 TMD 4 p' =0.5 KTM 0.2 p' =2.0 p' =5.0 3 0 2 - 0.2 freezing line 1 - 0.4 DM 0 0 0.005 0.01 0.015 0.02 0.025 a) 0.03 T' 0 0.01 0.02 0.03 0.04 0.05 0.06 b) 0.07 T' K'T C'P 0.492 3.4 0.4905 p' =1.0 0.489 3.2 0.1663 3 2.8 0.166 p' = 3.0 2.6 0.1657 2.4 0.0999 p' =1.5 p' =3.0 2.2 0.0998 p' =5.0 2 p' = 5.0 0.0997 1.8 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 T' c) 0 0.08 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 d) T' Abbildung 2 • a) p'-T'-Ebene des Phasendiagramms (TMD: Lage der Dichtemaxima; K TM: Lage der Kompressibilitätsminima; DM: Lage der Diffusionsminima); b) thermischer Ausdehnungskoeffizient; c) isotherme Kompressibilität; d) Wärmekapazität bei konstantem Druck. zweiten kritischen Punkt zugeordnet, der der Endpunkt eines Flüssig-Flüssig-Übergangs erster Ordnung ist [18, 20]. Im Gedargestellt und danach die Parameter βi als Funktion der Tem- gensatz zu Wasser nähert sich die TMD-Linie der GCM-Flüssigkeit asymptotisch T' = 0 für sehr große Dichten (Drücke). peratur γi11 γi12 Die isotherme Kompressibilität k (5) βi (T') = ∑ γik T' + √T' + √T' (6) K'T = 1 ∂ρ' ρ' ∂p' T' gefittet. In einem Übergangsbereich von 1.6 < ρ' < 2 sind beide Zustandsgleichungen gültig. und der thermische Ausdehnungskoeffizient Die sich daraus ergebenden Druck-Isochoren p' (ρ', T') sind in ∂p' (7) α'P = K'T Abbildung 1 als durchgezogene Linien dargestellt. Die Über∂T' ρ' einstimmung mit den Simulationsergebnissen ist recht gut. können ebenfalls aus der Zustandsgleichung berechnet werDer Verlauf zeigt ein ausgeprägtes Druckminimum, zu dem den. α'P und K'T sind in Abbildung 2b und 2c entlang von Isobaein Dichtemaximum bei konstantem Druck gehört. Hieraus ren für p' = 0.5, 2.0, 5.0 und p' = 1.0, 3.0, 5.0 dargestellt. Nach kann die Temperaturlinie maximaler Dichte (TMD) konstruiert seiner Definition ist der thermische Ausdehnungskoeffizient werden, indem die Punkte minimalen Drucks auf jeder Isocho- links von der TMD-Linie negativ. Die isotherme Kompressibire verbunden werden. Für Dichten kleiner als ungefähr 0,2 gibt lität zeigt ein ausgeprägtes Minimum ähnlich wie bei Wasser es kein Dichtemaximum beim GCM. Der Verlauf der TMD-Li- und steigt danach bei Kühlung wieder an (Abbildung 2c). Im nie in der p'-T'-Ebene ist in Abbildung 2a dargestellt. Das Vo- Gegensatz zu Wasser gibt es kein Maximum bei der Komlumen steigt bei Erwärmung und konstantem Druck links der pressibilität. Aus der Verbindungslinie der KompressibilitätsTMD-Linie ähnlich wie bei Wasser an. In guter Übereinstim- minima ergibt sich die K TM-Linie, die ebenfalls in Abbildung mung zu [19] wechselt die TMD-Linie die Richtung der Ablei- 2a dargestellt ist. Wie bei Wasser und anderen Flüssigkeiten tung bei einem Druck von p'= 1.3266 und einer Temperatur von mit anomalem Verhalten kreuzt die K TM-Linie die TMD-Linie T' = 0.0181. Bei Wasser wird dieses Verhalten einem möglichen im Punkte ihrer vertikalen Tangente gemäß den Eigenschaften (4) 9 ρ'(ρ', T'j ) = √ρ' ∑ βi (T'j ) ρ' i i=0 10 3 k=0 4 ( ) ( ) 75 08_hda_querschnitt_gesamt.indb 75 18.03.2008 16:08:54 Uhr QUERSCHNITT 22 vacf vacf 0.6 0.6 ρ' =0.4 0.5 T'=0.080 ρ'=1.0 0.5 0.4 0.4 0.3 0.3 0.2 T' =0.080 0.1 0.2 0 0.1 -0.1 T'=0.002 0 T' =0.008 -0.2 0 5 10 15 20 0 5 10 t' 15 20 t' Abbildung 3 • Geschwindigkeitsautokorrelationsfunktion für verschiedene Temperaturen und Dichten. der Zustandsgleichung (21). Ähnlich wie die TMD-Linie nähert sich die K TM-Linie asymptotisch T' = 0 bei sehr großer Dichte. Über α'P und K'T kann die Differenz der spezifischen Wärmen bei konstantem Druck und konstantem Volumen berechnet werden: 2 C'P – C'V = T'α'P ρ'K'T Die spezifische Wärme C'V ergibt sich aus der inneren Energie U' , die ebenfalls während der Simulationen ermittelt wird, nach C'V = (∂U' / ∂T')v. Für die innere Energie wurde ebenfalls ein analytischer Ausdruck U'(ρ',T') wie oben für die Zustandsgleichung beschrieben konstruiert, daraus ergab sich dann C'P. In Abbildung 2d ist C'P entlang der Isobaren p' = 1.0, 3.0, 5.0 dargestellt. Im Gegensatz zu normalen Flüssigkeiten steigt C'P genauso wie bei Wasser mit abnehmender Temperatur an. Dieses ungewöhnliche Verhalten trat in einem großen Simulationsbereich auf. Für sehr hohe Temperaturen ergab sich ein schwach ausgeprägtes Minimum für C'P. (8) 4 • Transportkoeffizienten Transportkoeffizienten werden eingeführt, indem ein Fluss j (z.B. der Massen-, Impuls- oder Energiefluss) proportional zu einem treibenden Kraftfeld E (z.B. zum Gradienten der Konzentration, der Strömungsgeschwindigkeit oder der Temperatur) gesetzt wird. Die Proportionalitätskonstante ist der zugehörige Transportkoeffizient κ: (9) j = κE Die Ermittlung der Transportkoeffizienten ist innerhalb einer phänomenologischen Theorie in der Regel nicht möglich, sie müssen experimentell bestimmt werden, oder es wird eine übergeordnete Theorie wie die Statistische Mechanik verwendet. Hier können Transportkoeffizienten mittels Gleichgewichtsmolekulardynamik unter Verwendung der Green-KuboRelation ∞ (10) κ ∞ ∫ j (t) · j (0) dt, 0 durch Integration der Autokorrelationsfunktion der Flussgröße j oder durch Anwendung der Einstein-Beziehung (11) k ∞ lim d [F(t) – F(0)]2 dt berechnet werden, wobei j durch t→∞ j = dF dt gegeben ist. Die Klammern … stehen für den Mittelwert einer möglichst großen Zahl unabhängiger Ereignisse. Wendet man dies auf den Selbstdiffusionskoeffizienten D an, so wird nach der Green-Kubo-Relation (12) ∞ (13) D = 1 ∫ ∑ vi(t)· vi(0) dt 3N und nach der Einstein-Beziehung N i=1 0 (14) D = lim 1 ∑[ri(t)– ri(0)]2 6Nt N die Teilchenzahl des Ensembles, ri ist der Ortsvektor und vi der Geschwindigkeitsvektor des Teilchens i. Die Anwendung der Einstein-Beziehung für die Scherviskosität auf Systeme mit periodischen Randbedingungen, wie dies bei molekulardynamischen Simulationen der Fall ist, verletzt die TranslationsN t→∞ i=1 76 08_hda_querschnitt_gesamt.indb 76 18.03.2008 16:08:56 Uhr Über die Stokes-Einstein-Beziehung für Fluidsysteme mit durchdringbaren Teilchen FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK D' η' 0.25 1.2 0.16 ρ'=1.2 1.0 0.2 0.8 0.5 0.3 1.0 0.12 0.15 0.8 0.1 0.08 0.5 0.05 0.3 0 0.04 0 0.02 0.04 0.06 a) 0.08 T' 0.3 0.5 b) 0.8 1.0 0.02 0.04 0.06 0.08 T' ρ'=1.2 Abbildung 4 • a) Selbstdiffusionskoeffizient D' als Funktion der Temperatur für verschiedene Dichten; D' wächst monoton mit der Temperatur. b) Temperaturabhängigkeit der Scherviskosität für verschiedene Dichten. Die Viskosität ändert sich stark in der Nähe des Übergangs zum festen Zustand. Die Lage der Erstarrungstemperatur für die unterschiedlichen Dichten ist als schmale dünne Linie am linken unteren Rand angegeben. Invarianz-Bedingung. Die Bestimmung der Scherviskosität η mit Hilfe der Green-Kubo-Relation gelingt durch Integration der Drucktensor-Autokorrelationsfunktion: ∞ (15) η = V ∫ Pxy(t) · Pxy (0) dt 3kBT mit der Komponente des Drucktensors 0 (16) Pxy = 1 ∑ mi vxi vyi + ∑ rxik f yik V . V ist das Volumen des Systems. Für die Berechnung der Wärmeleitfähigkeit λ wird aus demselben Grund nur die GreenKubo-Relation verwendet; durch Integration der WärmeflussAutokorrelationsfunktion erhält man [ i i≠k ] ∞ (17) λ = V ∫ S(t) · S(0) dt 3kBT2 mit 0 (18) S = 1 V Hierbei ist [∑ e v i i i + 12 ∑ rik ( f ik · vk ) . i≠k ] (19) ei = 1 mvi2+ ∑ ϕ( rik)– e 2 die momentane Exzessenergie des Teilchens i und e die mittlere Energie. Die Wechselwirkungskraft f ik zwischen den Teilchen i und k ergibt sich aus dem Wechselwirkungspotential. Die Transportkoeffizienten können bestimmt werden, wenn die Ortskoordinaten und Geschwindigkeitsvektoren für einen hinreichend langen Zeitraum bei der molekulardynamischen Simulation ausgewertet werden. In der Abbildung 3 ist die Geschwindigkeits-Autokorrelationsfuntion für das GCM-Fluid bei verschiedenen Temperaturen i≠k und Dichten dargestellt. Die Größen weisen verschiedene Anomalien auf. Das Abklingen der Geschwindigkeits-Autokorrelationsfunktion zeigt bei einer Dichte von 0,4 ein Verhalten, wie man es bei gewöhnlichen dichten Flüssigkeiten beobachten kann. Bei der höheren Dichte von 1 fällt die Funktion nahezu exponentiell mit der Zeit ab, wie man dies typischerweise bei dichten Gasen beobachtet. Dies ist eine der Eigenarten des GCM-Fluids: Bei Dichteerhöhung nähert sich das System immer mehr dem Gaszustand, im Grenzfall von unendlich hoher Dichte spricht man vom „infinite-density ideal-gas-limit“. Zusätzlich sind besonders bei der Geschwindigkeits- (und der Wärmefluss-Autokorrelationsfunktion) hochfrequente Schwingungen überlagert, die bei gewöhnlichen Flüssigkeiten ebenfalls nicht zu beobachten sind. In der Abbildung 4 ist der dimensionslose Selbstdiffusionskoeffizient D' und die Scherviskosität η' gemäß ϕ0 (20) η = √mϕ0 η' , D = σ m D' √ σ2 dargestellt. Der Selbstdiffusionskoeffizient wächst mit steigender Temperatur und außerdem ergibt sich als anomaler Effekt ein Anwachsen des Koeffizienten mit steigender Dichte, vgl. [5]. Die Viskosität fällt zwischen ρ' = 0,3 und 1 stark ab, wenn die Temperatur bei konstanter Dichte erhöht wird, durchläuft ein Minimum und steigt dann wieder an. Die starke Änderung in der Nähe des Erstarrungspunktes wird schwächer, wenn das System zusammengedrückt wird. In diesem Bereich tritt „reentrant melting“ auf. Bei einer Dichte von 1,0 bzw. 1,2 wächst die Viskosität monoton mit der Temperatur und der starke ne77 08_hda_querschnitt_gesamt.indb 77 18.03.2008 16:08:57 Uhr QUERSCHNITT 22 5 • Hydrodynamisches Modell Für die stationäre Strömung um eine Kugel mit dem Radius a können bei kleiner Geschwindigkeit die linearisierten NavierStokes-Gleichungen zusammen mit der Kontinuitätsgleichung verwendet werden: 0.4 (23) ρ' = 0.8 0.2 growing T' ρ' = 0.5 ·v = 0 p ist der Druck (hierbei soll p → 0 für u → 0 sein, u ist die Geschwindigkeit weit weg von der Kugel) und v ist der Geschwindigkeitsvektor. Da sich Teilchen mit beschränktem Wechselwirkungspotential gegenseitig durchdringen können, soll hier eine Strömung innerhalb der Kugel möglich sein. Innerhalb der Kugel wird diese durch einen Widerstand bestimmt, der linear zur Geschwindigkeit sein soll: ρ' = 1.0 0.3 p = ηΔv ∆ ρ' = 1.2 (22) ∆ 0.5 ∆ D' η'/T' (21) p = –κv Diese Beziehung ersetzt die Navier-Stokes-Gleichungen innerhalb der Kugel, wobei κ eine Konstante ist. In Kugelkoordinaten r, θ, φ wird für (21) folgender Ansatz [26] verwendet 0.1 ρ' = 0.3 0.05 0.08 0.11 0.14 0.17 η' Abbildung 5 • D'η' / T' ist als Funktion der Scherviskosität η' dargestellt, wobei die Dichte bei jeder Kurve konstant ist; T' ändert sich von 0.006 bis 0.08 für ρ' = 0,3 und von 0.002 zu 0.08 für ρ' = 1.2. gative Gradient verschwindet, weil die Erstarrungstemperatur sich bei hoher Dichte immer mehr dem Wert Null annähert [2225]. Im Gebiet des „reentrant melting“ bleibt das System für alle Dichten flüssig. Verwendet man diese Ergebnisse zur Ermittlung des StokesEinstein-Faktors D'η' / T', so ergibt sich der in Abbildung 5 dargestellte Verlauf, wobei S’ als Funktion von η' für verschiedene Dichten von ρ' = 0,3 bis 1,2 dargestellt ist. Diese Darstellung erklärt sich aus dem hydrodynamischen Modell. Die Temperatur ändert sich von T’= 0,006 bis 0,08 für ρ' = 0,3 und von T’= 0,002 bis 0,08 für ρ' = 1,2 , wie durch den Pfeil angegeben. In Abbildung 5 sind offensichtlich zwei unterschiedliche Verläufe bei jeder Kurve zu unterscheiden: Im einen Bereich ist S’ nahezu unabhängig von der Viskosität η' (dies wird im weiteren als der klassische Zweig der Kurve bezeichnet). Im anderen Bereich wächst S’ linear mit der Viskosität η', hier ist die Stokes-Einstein-Relation offensichtlich verletzt (der nichtklassische Zweig). Es wurde bereits dargestellt, dass die speziellen Eigenschaften des GCM-Potentials für die unterschiedlichen Anomalien der thermodynamischen Größen und der Transportkoeffizienten verantwortlich sind. Im folgenden wird nun gezeigt, dass der eigentümliche Verlauf für S’ ebenfalls durch die mögliche Durchdringung der Teilchen erklärt werden kann. Hierzu werden die gleichen Annahmen wie für die Herleitung der klassischen Stokes-Einstein-Beziehung verwendet, und man findet dann eine Beziehung, die den linearen Verlauf für S’ mit der Viskosität enthält. (24) vr = u · f(r) · cosθ, vθ = –u · ( 2r f'(r) + f(r)) · sinθ (äußere Lösung), die Kontinuitätsgleichung ist identisch erfüllt. Bildet man die Rotation von (21), so wird (25) 4f' – 4rf'' – 1 r3 f'''' = 0 2 mit der Lösung (26) f(r) = C1 + C2r2 + C3 / r + C4 / r3 wobei C1 = 1 und C2 = 0, weil f(∞) = 1. Für die innere Lösung wird ein ähnlicher Ansatz verwendet, wobei f(r) durch g(r) ersetzt ist. Dann folgt aus Gleichung (23) (27) rg'' + 4g' = 0 mit der Lösung (28) g(r) = D1 + D2 / r3 Da die Geschwindigkeit innerhalb der Kugel endlich bleiben muss, wird D2 = 0. Für die übrigen drei Konstanten D1, C3 und C4 werden die drei Bedingungen, dass die Geschwindigkeitskomponenten vr, vθ und der Druck p bei r = a stetig sein müssen, verwendet, und man erhält 2η a5κ . (29) C3 = – 3κa3 , C4 = , D1 = 2κa2 + 3η 2κa2 + 3η 2κa2 + 3η Integriert man nunmehr (30) σrr cosθ – σrθ sinθ = cosθ (– p + 2η ∂vr ) – η sinθ ( 1r ∂vr + ∂vθ – rvθ ) ∂θ ∂r ∂r über die Oberfläche der Kugel bei r = a, so ergibt sich die Kraft auf die Kugel . (31) F = 12u πηκa3 2κa2 + 3η Für κ = 0 gibt es keinen Widerstand, und es wird F = 0; für κ → ∞ gibt es keine Strömung innerhalb der Kugel und es gilt die berühmte Formel von Stokes: F = 6πηau In der Abbildung 6 sind die Stromlinien der Lösung dargestellt: Das linke Bild zeigt das Resultat für kleines κ, in diesem Falle wird die Strömung nur wenig durch die Kugel gestört. Das 78 08_hda_querschnitt_gesamt.indb 78 18.03.2008 16:08:59 Uhr Über die Stokes-Einstein-Beziehung für Fluidsysteme mit durchdringbaren Teilchen FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK Abbildung 6 • Stromlinien der berechneten Strömung; kleines κ (κa2 / uη = 1) links, großes κ (κa2 / uη = 100) rechts. rechte Bild zeigt die Lösung für großes κ, die Stromlinien um die Kugel sind wesentlich dichter als innerhalb, d.h. die Strömung innerhalb der Kugel ist nur sehr schwach. Die Stromlinien innerhalb der Kugel ergeben sich als parallele Linien, weil die Geschwindigkeit dort konstant ist. Bezeichnet man die Strömungsrichtung mit dem Einheitsvektor e, dann ist der Strömungsvektor innerhalb der Kugel: 3ηu (32) v = e 2κa2 + 3η Folgt man nunmehr der Argumentation von Einstein, so ist der Zusammenhang zwischen Diffusionskoeffizient und treibender Kraft F der suspendierten Teilchen durch Falle des GCM-Fluids. Die beiden unterschiedlichen Zweige der Kurven lassen sich leicht erklären. Auf dem klassischen Zweig ist D'η' / T' nahezu konstant, was bedeutet, dass der Einfluss der Durchdringung der Teilchen gering ist. Dies ist bei kleiner Dichte bzw. kleiner Temperatur der Fall. Beim nichtklassischen Zweig wächst D'η' / T' linear mit η' , wie sich dies aus Gleichung (36) ergibt, d.h. der Einfluss der Durchdringung wird dominant. Dies ist in guter Übereinstimmung mit [4] und den Ergebnissen für die anderen Anomalien des GCM-Modells: Wenn die Dichte größer wird, wird die gegenseitige Durchdringung der Teilchen immer wichtiger. Bei kleinen Dichten bis ungefähr ρ' ≈ 0.3, gibt es kaum Einfluss der Durchdringung. Bei höheren Dichten ab ρ' = 1.2 gibt es wegen der Durchdringung (33) DF = kB Tu keinen klassischen Zweig. Für die Dichten dazwischen gibt es gegeben, wobei u die Teilchengeschwindigkeit in der Suspen- offensichtlich beide Zweige. Es ist nicht selbstverständlich, dass κ' und a' konstant sind. sion ist. Man kann nun (31) verwenden, um F zu eliminieren: Es ist durchaus vorstellbar, dass die Struktur des Systems Dη 2κa2+ 3η (34) = kB T zumindest von der Dichte abhängt und damit den Widerstand 12πκa3 beeinflusst. Schreibt man Gleichung (36) in der Form Mit dem dimensionslosen Widerstandskonstanten κ' , wobei D'η' √mϕ0 (37) = c + m · η' , (35) κ = κ' , T' σ2 so zeigen die Ergebnisse der Abbildung 5, dass c zumindest wird schwach von der Dichte abhängt. Es scheint aber außerdem D'η' 2κ'a'2+ 3η' (36) = . T' so zu sein, dass die Steigungen des nichtklassischen Zweigs 12πκ'a'3 nahezu konstant sind. Von diesen Steigungen kann man einen Falls κ' sehr groß wird, gilt D'η' / T' = 1 / (6πa') = const. Es zeigt sich, dass die klassische Stokes-Einstein-Relation Wert für den Widerstandskoeffizienten ablesen: nicht nur im Falle der Diffusion großer Teilchen in einer Lö(38) κ'a'3 ≈ 0.028 . sung gültig ist, sondern auch im Falle der Selbstdiffusion [12]. Offensichtlich gilt dies auch für die erweiterte Beziehung im 79 08_hda_querschnitt_gesamt.indb 79 18.03.2008 16:09:00 Uhr QUERSCHNITT 22 6 • Zusammenfassung und Ausblick Das GCM-Liquid zeigt eine Menge ungewöhnlicher Eigenschaften, weil bei diesem Modell eine gegenseitige Durchdringung der Teilchen möglich ist. Durchdringung ist ebenfalls bei Molekülen möglich, die aus sehr vielen Atomen bestehen und im Bereich der „weichen kondensierten Materie“ betrachtet werden. Hier wird das GCM als effektives Modellpotential verwendet. Zunächst wurden die thermodynamischen Eigenschaften des Modells untersucht. Auf einem ziemlich dichten Netz im Phasenraum wurden Monte-Carlo-Simulationen durchgeführt und hiermit wurde eine recht genaue Zustandsgleichung konstruiert. Hierbei konnten sehr viele Ähnlichkeiten zu Flüssigkeiten, die Anomalien aufweisen, wie z.B. Wasser, aufgezeigt werden. Die TMD-Linie, die die Begrenzung des Bereichs mit negativer thermischer Ausdehnung angibt, und die K TM-Linie, die die Berandung des Bereichs mit anomalem Anstieg der isothermen Kompressibilität beschreibt, zeigen beide einen Punkt mit vertikaler Steigung. Hierbei schneidet die K TM-Linie die TMDLinie genau in dem Punkt vertikaler Steigung, wie dies aus thermodynamischen Überlegungen vorhergesagt wurde. Die spezifische Wärme bei konstantem Druck weist anomales Verhalten in einem großen Bereich des Phasenraums auf. Untersuchungen der Paarverteilungsfunktion zeigen, dass sich das GCM bis zu einer dimensionslosen Dichte von etwas 0,23 wie eine normale Flüssigkeit verhält. Für höheren Dichten wird die Ordnung des Systems immer schwächer; dies weist auf eine Annäherung zum „Idealgasverhalten“ beim Grenzwert unendlich hoher Dichten hin. Zur Untersuchung der Transporteigenschaften wurden molekulardynamische Simulationen durchgeführt. Anomales Diffusionsverhalten tritt für Dichten oberhalb von ungefähr 0,33 auf. Im Gegensatz zu normalen Flüssigkeiten wird die Mobilität der Teilchen bei steigender Dichte erhöht, weil die abstoßende Kraft zwischen den Teilchen schwächer wird und die Teilchen sich durchdringen können. Die Geschwindigkeitsautokorrelationsfunktion zeigt ebenfalls die Eigenschaft vom Übergang des einfachen dichten Liquids zum dichten Gas bei Erhöhung der Dichte; dies deutet ebenfalls eine Annäherung zum „Idealgasverhalten“ bei „idealer Unordnung“ an. Die Stokes-Einstein-Relation ist beim GCM-Liquid ebenfalls verletzt. Betrachtet man Flüssigkeiten mit beschränktem Wechselwirkungspotential, die sich gegenseitig durchdringen können, so findet man einen neuen Zusammenhang für die Stokes-Einstein-Relation, bei der S linear mit der Viskosität wächst. Dieses einfache hydrodynamische Modell beschreibt den Unterschied zwischen nicht durchdringbaren und durchdringbaren Teilchen und ist vom speziellen Wechselwirkungspotential unabhängig. Dieses Verhalten wird auch vom GCMLiquid dargestellt. Die molekulardynamischen Simulationen und Untersuchungen am GCM-Liquid werden weitergeführt. Z.Z. werden analytische Ausdrücke für die Darstellung der Transportkoeffizienten konstruiert. Diese Ausdrücke sind wichtig, weil es theoretisch möglich sein soll, Anomalien der Koeffizienten durch Betrachtung der Exzessentropie vorherzusagen. Diese Zusammenhänge wären von grundsätzlicher Bedeutung für die Beschreibung und Voraussage von makroskopischen Eigenschaften. 80 08_hda_querschnitt_gesamt.indb 80 18.03.2008 16:09:01 Uhr Über die Stokes-Einstein-Beziehung für Fluidsysteme mit durchdringbaren Teilchen FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK Außerdem werden Nichtgleichgewichtssimulationen durchgeführt, bei denen Scherfelder oder Temperaturgradienten aufgebracht werden. Diese Untersuchungen sind wichtig für die Abhängigkeit z.B. der Viskosität von der Scherung, Effekte die in der Realität von großer Bedeutung sind, experimentell aber oft nur sehr schwierig oder gar nicht untersucht und abgetrennt werden können. P. Lindner, Macromolecules 34 (2001) 2914 9 M. Ballauf, C.N. Likos, Angew. Chem. Int. Edit. 43 (2004) 2998 10 A.A. Louis, P.G. Bolhuis, J.P., Phys. Rev. E, 62 (6), Part A (2000) 7961 11 A. Einstein, Ann. Phys. 17, 549 (1905) 12 J.A. Hodgdon und F.H. Stillinger, Phys. Rev. E 48, 207 (1993) 13 P.G. Debenedetti und F.H. Stillinger, Nature (London) 410 (2001), 259 Danksagung • Große Anteile der Simulationen wurden am RUBENS-Clus- 14 S.-H. Chen, F. Mallamace, C.-Y. Mou, M. Broccio, C. Corsaro, A. Faraone und L. Liu, Proc. Natl. Acad. Sci. USA 103 ter der Universität Siegen durchgeführt. Wir möchten Herrn (2006), 12974 Michael Weitzel und Herrn Roland Reichardt herzlich für ihre Unterstützung bei der Nutzung des Clusters danken. Ebenfalls 15 P. Kumar, Proc. Natl. Acad. Sci. USA 103 (2006), 12955 wollen wir uns bei Herrn Thomas Michaelis (Fachbereich MK) 16 H.-O. May und P. Mausbach, Phys. Rev E 76 (2007), 031201 17 P. Mausbach, H.O. May, Fluid Phase Equilibria 214 (2003) 1 für seine Hilfe und Unterstützung bedanken. 18 P.H. Poole, I. Saika-Voivod, F. Sciortino, J. Phys.: Condens. Matter 17 (2005) L431 Literatur • 19 F.H. Stillinger, D.K. Stillinger, Physica A 244 (1997) 358 1 F.H. Stillinger, J. Chem. Phys. 65 (1976) 3968 20 O. Mishima, H.E. Stanley, Nature 396 (1998) 329 2 F.H. Stillinger, T.A. Weber, J. Chem. Phys. 68 (1978) 3837 21 S. Sastry et al., Phys. Rev. E 53 (1996) 6144 3 P. Mausbach, H.-O. May, Proc. Appl. Math. Mech. 5 (2005), 22 A. Lang, C.N. Likos, M. Watzlawek, H. Löwen, J. Phys.: 685 Condens. Matter 12 (2000) 5087 4 P. Mausbach, H.-O. May, Proc. Appl. Math. Mech. 6 (2006), 23 F.H. Stillinger, J. Chem. Phys. 65 (1976), 3968 571 24 P.V. Giaquinta, F. Saija, ChemPhysChem. 6 (2005), 1768 5 P. Mausbach, H.-O. May, Fluid Phase Equilib. 249 (2006), 17 6 P. Mausbach, H.-O. May, 16th Symposium on Thermophysi- 25 S. Prestipino, F. Saija, P.V. Giaquinta, Phys. Rev. E 71 (2005), 050102(R) cal Properties (Boulder, Colorado, July 30 - August 4, 2006) 26 A. Sommerfeld, Vorlesungen über Theoretische Physik, 7 C.N. Likos, Physics Report 348 (2001) 267 Band II, Akademische Verlagsgesellschaft, Leipzig 1970 8 C.N. Likos, M. Schmidt, H. Löwen, M. Ballauff, D. Pötschke, 81 08_hda_querschnitt_gesamt.indb 81 18.03.2008 16:09:01 Uhr QUERSCHNITT 22 WEITERGEHENDE ABWASSERBEHANDLUNG DAMIT ES IM KANAL NOCH SAUBERER WIRD! Autoren • Prof. Dr.-Ing. habil. J. Unger, FB MK Dipl.-Chem. S. Michling, FB B 1 • Einleitung Abwässer aus Küchen und der Lebensmittelindustrie sind organisch durch Öle und Fette hoch belastet. Nicht abgebaute Öle und Fette verursachen in Form von schwachen Säuren und durch Seifenbildung im Kanalsystem bis hin zur Kläranlage sowohl ein erhöhtes Unfallrisiko für das Personal in den begehbaren Kanälen als auch ökonomisch nicht vernachlässigbare Folgekosten, um die Abwasserentsorgung nachhaltig sicher aufrechterhalten zu können. Diese lipophilen Stoffe gilt es deshalb zu reduzieren. Zum Erreichen dieses Ziels wurden bisher Fettabscheider eingesetzt, die allein gravimetrisch eine Abscheidung (physikalische Abtrennung) der im Schwerefeld leicht aufsteigenden Öl- und Fettanteile bewirken (Abbildung 2). Abbildung 0 • Detailansicht Bioreaktor 82 08_hda_querschnitt_gesamt.indb 82 18.03.2008 16:09:02 Uhr Weitergehende Abwasserbehandlung – damit es im Kanal noch sauberer wird! FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK Fett, Öl gravimetrisch behandeltes Abwasser mit Fett und Öl in emulgierter Form Zulauf Sinkstoffe Abbildung 1 • Gravimetrischer Fettabscheider, Schnitt durch Anlage (links), Schematische Darstellung (rechts) a b c Abbildung 2 • Gesamtrückhaltesystem bestehend aus Fettabscheider (a), Bioreaktor (b) und Filter (c), ACO Passavant GmbH Diese Art der Abscheidung lipophiler Stoffe kann nur eine Vorabscheidung sein. Eine weitergehende Behandlung zum Abscheiden auch der emulgierten Fett- und Ölanteile ist allein mit Hilfe biologischer Mittel zu erreichen. Denkbar wäre hier der Einsatz von Enzympräparaten direkt im Fettabscheider mit dem Ziel, die im Abwasser noch vorhandenen emulgierten Fette und Öle vollständig durch Mineralisierung in Kohlendioxid und Wasser umzuwandeln. Diesbezügliche Experimente [ 1, 2, 3 ] haben aber gezeigt, dass dieses Ziel im Fettabscheider selbst nicht erreicht werden kann. Ganz im Gegenteil werden bereits gravimetrisch abgeschiedene Anteile wieder mobilisiert, so dass sich die Ablaufwerte durch den Einsatz von Enzymen sogar verschlechtern. Verstärkt wird dieser Effekt, wenn die eingesetzten biologischen Mittel zudem Tenside enthalten. Wenn im Fettabscheider überhaupt eine gegenüber der gravimetrischen Abscheidung verbesserte Situation erreicht werden soll, kann dies allein mit Hilfe von Mikroorganismen geschehen. Dies setzt aber voraus, dass diese Mikroorganismen sowohl die nicht gravimetrisch abgebauten emulgierten als auch die zusätzlich mobilisierten Fett- und Ölanteile vollständig abbauen. Dem steht aber das in Fettabscheidern üblicherweise nicht abbaufördernde Milieu entgegen. Die in der Regel zu hohen Temperaturen, zu niedrigen pH-Werte und zu geringen Sauerstoffkonzentrationen liegen außerhalb des Arbeitsfensters der aeroben Mikroorganismen, selbst für die natürlichen im Abwasser vorkommenden an den Fettabschei- der angepassten Mikroorganismen. Deshalb sollte der Fettabscheider klassisch allein gravimetrisch ohne biologische Zusatzmittel betrieben und eine gewünschte weitergehende Reduzierung der emulgierten lipophilen Reststoffe durch eine Weiterbehandlung bewerkstelligt werden, die sich an die Vorabscheidung anschließt, die keine negative Rückwirkung auf die Ablaufwerte des allein gravimetrisch arbeitenden Fettabscheiders selbst hat. Dieses Ziel lässt sich mit Hilfe eines nachgeschalteten aeroben Bioreaktors (Abbildung 2) erreichen, dessen Milieu unabhängig von den klassischen Fettabscheiderverhältnissen gezielt eingestellt werden kann. Um schließlich noch im Reaktor frei schwimmende Biomasse beim Abfluss in den Kanal zurückhalten zu können, ist zusätzlich ein Filter einzubauen. Durch die strikte Trennung der Effekte (physikalische Abscheidung im Fettabscheider, biologischer Abbau im Bioreaktor, mechanische Zurückhaltung durch Filter) kann jedes Teilsystem verfahrenstechnisch so optimal gestaltet werden, dass insgesamt Ablaufwerte unter 100 mg /l an lipophilen Stoffen zu erreichen sind. Damit der Bioreaktor seine Aufgabe sicher erfüllen kann und sich der Filter dauerhaft ohne Verstopfen betreiben lässt, sind grundlegende verfahrenstechnische Aufgaben zu lösen. Hierbei ist insbesondere das biologische Abbauverhalten der im Bioreaktor eingesetzten Mikroorganismen unter realen Abwasserbedingungen zu testen, um auch Hemmungen er83 08_hda_querschnitt_gesamt.indb 83 18.03.2008 16:09:12 Uhr QUERSCHNITT 22 ACO BIO PLUS Abluft Bioreaktor Probenentnahme Emulsionsvorrichtung Dosiervorrichtung Luftkompressor Pumpe Beobachtungsfenster Abbildung 3 • Bioreaktor zum Testen des Abbauverhaltens lipophiler Stoffe Abbildung 4 und 5 • Mikroorganismen zum Abbau lipophiler Stoffe im Konzentrat ACO BIO PLUS (links), Aufwuchsträger für die Mikroorganismen (rechts) kennen zu können, die einem gezielten zeitlichen Abbau entgegenwirken. Zur Vermeidung dieser Hemmungen sind präventive und verfahrenstechnische Maßnahmen zu entwickeln. Auch die Weiterentwicklung der Messverfahren ist hier von signifikanter Bedeutung. Um den Filter, der ebenfalls reduzierend auf die lipophilen Stoffe wirkt, dauerhaft betreiben zu können, wird eine pneumatische Rückspülung untersucht, die einen sich selbständig einstellenden Pulsationseffekt nutzt. Die genannten Arbeiten sind Forschungsgegenstand eines Projekts, das gemeinschaftlich von den Fachbereichen MK und B der h_da und dem Fachbereich Physik der TU Darmstadt zusammen mit der ACO Passavant GmbH betrieben wird. chen (Abbildung 4) und sind von der Gattung Bacillus [1]. Zum Siedeln der Mikroorganismen werden Aufwuchsträger der Form nach Abbildung 5 verwendet, die im Wirbelbett des Reaktors schleichend umlaufen, das verknüpft mit der Belüftung zur notwendigen Sauerstoffversorgung der aeroben Mikroorganismen (Abbildung 6) erzeugt wird. 2 • Bioreaktor In Abbildung 3 ist der Bioreaktor zum Testen des Abbauverhaltens lipophiler Stoffe dargestellt. Mit der Dosier- und Emulsionsvorrichtung lassen sich Modellabwässer erzeugen. Der Abbau der lipophilen Stoffe wird dann durch Zugabe (Animpfen) von Enzymen und Mikroorganismen initiiert. Hierzu wird das Konzentrat ACO BIO PLUS verwendet, das neben den zum Abbau erforderlichen Mikroorganismen auch Enzyme enthält, so dass der Fressprozess der Mikroorganismen ohne sofortige eigene Enzymproduktion der Mikroorganismen unverzögert einsetzen kann. Die Mikroorganismen lassen sich mikroskopisch sichtbar ma- 3 • Abbauversuche Die folgenden Abbildungen zeigen exemplarisch für unterschiedliche Modellabwässer das biologische Abbauverhalten für lipophile Stoffe. Beim ersten Test wurde als Abwasser bewusst ein Monosubstrat (Wasser und Sonnenblumenöl) gewählt, um zeigen zu können, dass das zum Animpfen verwendete Konzentrat ACO BIO PLUS auch beim Fehlen sonstiger Nährstoffe im Substrat geeignet ist, gute Abbauleistungen zu erbringen. Bei der Ermittlung der zur jeweiligen Beprobungszeit vorliegenden Konzentration an lipophilen Stoffen Slip(t) lieferten die damit beauftragten Labore für identische Proben erheblich voneinander abweichende Werte, obwohl alle Labore mit der gleichen Analysenmethode DEV H56 arbeiten. Entsprechend ergeben sich stark voneinander abweichende Abbaugradienten Ṡlip. Die aus den Abbaukurven (Abbildung 7, Abbildung 8) abzulesenden Abbaugradienten unterscheiden sich um den Faktor 4. Die Abbauzeiten T100 bis zum Erreichen eines Grenzwerts Slip = SlipG = 100 mg /l liegen somit im Bereich 4 h ≤ T100 ≤ 12. 84 08_hda_querschnitt_gesamt.indb 84 18.03.2008 16:09:18 Uhr Weitergehende Abwasserbehandlung – damit es im Kanal noch sauberer wird! FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK Abbildung 6 • Gesamtansicht des Bioreaktors 85 08_hda_querschnitt_gesamt.indb 85 18.03.2008 16:09:20 Uhr QUERSCHNITT 22 Slip (mg/l) Slip (mg/l) 1400 1400 1200 1200 1000 1000 800 800 600 600 Ṡlip = - 46 mg 400 400 Ṡlip = - 160 mg/l h 200 200 0 0 0 4 8 12 16 20 24 28 32 36 40 44 0 48 4 8 12 16 20 24 28 32 36 40 44 t (h) Abbildung 7 • Abbauversuch, Sonnenblumenöl I, Slip,Füll = 1200 mg /l, Slip (0) = 690 mg /l, 2 ml /l ACO BIO PLUS I, Probenwerte (HD-Labor, Michling, Darmstadt) 48 t (h) Abbildung 8 • Abbauversuch, Sonnenblumenöl I, I, Slip,Füll = 1200 mg /l, Slip (0) = 740 mg /l, 2 ml /l ACO BIO PLUS I, Probenwerte (Wessling, Darmstadt) Slip (mg/l) Slip (mg/l) 250 250 200 200 Ṡlip = -28 mg / l h 150 150 Ṡlip = -15 mg / l h 100 100 Ṡlip = -10 mg / l h 50 50 0 0 0 6 12 18 24 30 36 42 48 54 0 60 6 12 18 24 30 36 42 48 54 Abbildung 9 • Enzym- und Wachstumstest mit zyklischer Ölzufuhr, Ölzufuhrzeiten tÖl = [0, 18, 36] h, Sonnenblumenöl II, Slip,Füll = 1200 mg /l, Slip (0) = 220 mg /l, ACO BIO PLUS II (schaumreduzierend), Probenwerte (Wessling, Darmstadt) 60 t (h) t (h) Abbildung 10 • Abbaugradienten des Enzym- und Wachstumstests mit zyklischer Ölzufuhr Slip (mg/l) Slip (mg/l) 70 20 60 15 50 40 10 30 S = -8mg/lh 20 5 10 Nichtnachweisbarkeitsbereich 0 0 0 5 10 15 20 25 t (h) Abbildung 11 • Abbauversuch, synthetisches Substrat NPB, Slip, Füll = 340 mg /l, Slip (0) = 70 mg /l, 2 ml /l ACO BIO PLUS I, Probenwerte (HD-Labor, Michling, Darmstadt) 0 6 12 18 24 30 36 42 48 54 60 66 t (h) Abbildung 12 • Enzym- und Wachstumstest mit zyklischer NPB-Zufuhr NPB-Zufuhr von jeweils 150 g NPB in Zeitenschritten [0, 24, 36, 48, 60] h 2 ml /l ACO BIO PLUS II (schaumreduzierend), Slip, Füll = 1200 mg /l Probenwerte (Wessling, Darmstadt) 86 08_hda_querschnitt_gesamt.indb 86 18.03.2008 16:09:25 Uhr Weitergehende Abwasserbehandlung – damit es im Kanal noch sauberer wird! FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK Um das Wachstum der Mikroorganismen und damit verknüpft auch die Eigenenzymproduktion der Mikroorganismen sichtbar machen zu können, wurde der Langzeittest nach Abbildung 9 durchgeführt. Man erkennt wie zuvor die sofortige Abbauwirkung durch die im Impfkonzentrat ACO BIO PLUS vorhandenen Start-Enzyme und Mikroorganismen. Eine zyklische Zudosierung gleicher Ölmengen wie zum Abbaubeginn führt aber nicht mehr auf den Startwert zurück. Offensichtlich hat sich die Zahl der Mikroorganismen erhöht, die zugleich hinreichend eigene Enzyme produzieren, die die lipophilen Stoffe auch weiterhin so zerkleinern, dass diese durch die Zellwände der Mikroorganismen diffundieren und schließlich als Nahrung genutzt werden können. Asymptotisch strebt das biologische System gegen Maximalwerte, die deutlich unter 100 mg /l liegen. Dabei zeigt sich auch, dass die Abbaugradienten mit abnehmender Substratkonzentration kleiner werden (Abbildung 10). Einerseits ist deshalb eine vollkommene Reinigung allein durch biologischen Abbau unmöglich, andererseits steigt die Reinigungsleistung mit zunehmender Verschmutzung an lipophilen Stoffen an, so dass ein sich selbsthelfendes Verhalten vorliegt. Um auch das Anspringen der Enzyme und Mikroorganismen des Impfkonzentrats ACO BIO PLUS bei einem realistischeren Abwasser testen zu können, wurde für weitere Experimente anstelle des Sonnenblumenöls eine Natrium-Pepton-Bouillon (NPB) verwendet, mit der etwa die Eigenschaften kommunaler Abwässer nachgebildet werden können. Die Messergebnisse nach Abbildung 11 zeigen, dass selbst bei niedrigen Substratkonzentrationen der Abbau in einer Abbauzeit T < 10 h nahezu vollständig erfolgt. Eine Wiederholung des Enzym- und Wachstumstests, jetzt aber mit zyklischer NPB-Zugabe, zeigt Abbildung 12. Qualitativ ist der Verlauf der Probenwerte verständlich. Der Startwert nach der ersten NPB-Zufuhr bleibt unverändert erhalten (Reaktor mit laufender Belüftung aber ohne Animpfung mit ACO BIO PLUS). Nach Zugabe von ACO BIO PLUS erfolgt eine prompte Reduzierung der lipophilen Stoffe, die sich bis zur nächsten NPB-Zugabe fortsetzt. Danach erhöht sich der Abbau / Zeit und erschöpft sich dann mit Eintritt in den Nichtnachweisbarkeitsbereich. Unverständlich sind dagegen die extrem niedrigen Substratwerte. Obwohl die zur Zeit t = 0 zugeführte NPB-Menge mit 150 g gegenüber der im einzyklischen Abbautest nach Abbildung 11 mit 60 g um den Faktor 2,5 gesteigert wurde, ergeben sich Laborwerte die um den Faktor 5 kleiner ausfallen. Dies kann einerseits wieder eine Folge der in verschiedenen Labors offensichtlich verschieden gehandhabten Analysenmethode DEV H56 , andererseits aber auch ein Nebeneffekt des neu verwendeten Animpfkonzentrats ACO BIO PLUS (schaumreduzierend) sein, das wegen zu starker Schaumbildung modifiziert wurde, da diese den Reaktorbetrieb stört. Die bisher aufgetretenen Abweichungen der Probewerte verschiedener Labore zeigen, dass diese Abweichungen sich im87 08_hda_querschnitt_gesamt.indb 87 18.03.2008 16:09:26 Uhr QUERSCHNITT 22 g Kanal Abbildung 13 • Dem Fettabscheider und Bioreaktor nachgeschalteter Filter (Vereinfachte grafische Darstellung) Abbildung 14 • Dem Fettabscheider und Bioreaktor nachgeschalteter Filter mer in gleicher Weise wiederholen und damit laborspezifisch sind. So zeigt etwa der Vergleich der HD-Laborwerte (Abbildung 7) mit den Wessling-Laborwerten (Abbildung 8), dass das Labor Wessling bei Abweichungen in der Regel kleinere Werte als das HD-Labor liefert, so dass zu vermuten ist, dass die extrem niedrigen Substratkonzentrationen sich zumindest zum Teil aus der Problematik der Analysenmethode DEV H56 herleiten. Andererseits sind seit der Verwendung des modifizierten ACO BIO PLUS massive Ablagerungen im Bereich der freien Wasseroberfläche des Bioreaktors zu beobachten. Wenn diese signifikant viel lipophile Stoffe enthalten, die damit der Probenahme entzogen sind, können die gemessenen extrem niedrigen Substratkonzentrationswerte aber auch durch diesen Ablagerungseffekt erklärt werden. Wie dem auch sei, zeigt Abbildung 12 deutlich, dass die im ACO BIO PLUS enthaltenen Mikroorganismen und Enzyme in der Tat ohne Zeitverzögerung die lipophilen Stoffe im NPB-Abwasser abbauen können und außerdem die Abbaufähigkeit mit der Zeit anwächst. Mit Hilfe der fettabweisenden Eigenschaft des Filters können nochmals Reste an lipophilen Stoffe bis etwa 40 % zurückgehalten werden. Zur Reinigung der Filteroberfläche wird die sich selbständig einstellende Druckpulsation (Systemeigenschaft) genutzt, die durch Einblasen von Luft in das Innere des Filters induziert wird. Durch Einbau eines Totvolumens im Filter kann der hierzu benötigte Luftmassenstrom stark reduziert werden. Die so erzeugten Druckpulsationen zeigt Abbildung 15. 5 • Ausblick Die von der ACO Passavant GmbH für Fettabscheidesysteme zur weitergehenden Abwasserbehandlung gewählte modulare Bauweise (Fettabscheider, Bioreaktor, Filter) ergibt sich zwangsläufig aus den dabei genutzten naturgesetzlichen Effekten (physikalisch, biologisch, hydromechanisch). Durch die strikte Trennung der Effekte kann jedes Teilsystem für sich verfahrenstechnisch optimal gestaltet werden. Mit der Wahl dieser Auslegungsphilosophie wird das Verfahren zur weitergehenden Abwasserbehandlung rückwirkungsfrei, die Kausalität bleibt vollständig erhalten. Außerdem lassen sich 4 • Filter Um vagabundierende Biomasseanteile und Schwebestoffe des somit bestehende Altanlagen zur weitergehenden Abwassersowohl gravimetrisch als auch biologisch gereinigten Abwas- behandlung einfach nachrüsten. sers beim Abfluss in den Kanal zurückhalten zu können, ist Die durchgeführten biologischen Abbauversuche haben gedem Fettabscheider und Bioreaktor ein Metallspaltfilter nach- zeigt, dass das Ziel der weitergehenden Abwasserbehandlung sicher erreicht werden kann. Voraussetzung dabei ist jedoch, geschaltet (Abbildung 13 und 14). dass keine Hemmungen des biologischen Abbaus entstehen. 88 08_hda_querschnitt_gesamt.indb 88 18.03.2008 16:09:27 Uhr Weitergehende Abwasserbehandlung – damit es im Kanal noch sauberer wird! FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK (mbar) 54,9 54,7 Eigenpulsation des Filters 54,5 54,3 54,1 53,9 53,7 53,5 53,3 53,1 52,9 52,7 52,5 52,3 0:00 0:12 0:24 0:36 0:48 1:00 1:12 1:24 1:36 1:48 2:00 2:12 2:24 2:36 2:48 3:00 (min) Abbildung 15 • Eigenpulsation zur Reinigung der Filteroberfläche Deshalb ist die Kenntnis von möglichen Hemmungen und deren Ursachen signifikant wichtig und muss weiter erforscht werden. Zur Vermeidung von Hemmungen sind präventive und verfahrenstechnische Maßnahmen zu entwickeln. Bei den Abbauversuchen hat sich die Analysenmethode DEV H56 zur Bestimmung der lipophilen Stoffe als Schwachstelle entpuppt. Diese Methode muss so weiterentwickelt werden, dass beliebige Labore bei identischen Proben auch die zugehörigen reproduzierbaren Werte liefern. Zudem ist die Methode der gravimetrischen Bestimmung abgesehen von der nicht gegebenen Reproduzierbarkeit insbesondere bei Emulsionsbildung umständlich und zeitraubend. Die Entwicklung eines Sensors zur online-Messung, der dann auch als Messfühler für eine Regelung benutzt werden kann, ist überfällig. Literatur • 1 Bossler, B., „Einsatz mikrobiologischer Produkte in Fettabscheidern“, IKT-Institut für Unterirdische Infrastruktur, Gelsenkirchen, 2002 2 Gronau, U., „Wie gut reinigen Fettabscheider?“, IKT-Institut für Unterirdische Infrastruktur, Gelsenkirchen, 2002 3 Baier, U., „Fett in Fettabscheidern der Gastronomie – Abbauen oder verflüssigen?“ Zürcher Hochschule für Angewandte Wissenschaft, Umweltbiologie, 2004 Kurzbiografie • Prof. Dr.-Ing. habil. Jochem Unger Jahrgang 1944. Von 1960 bis 1963 Lehrausbildung zum Technischen Zeichner. Von 1963 bis 1966 Studium des Maschinenbaus an der Ing.-Schule Darmstadt und von 1967 bis 1971 Studium des Maschinenbaus (Flugzeugbau) an der Technischen Hochschule Darmstadt. Von 1972 bis 1976 wissenschaftlicher Mitarbeiter am Institut für Mechanik der TUD (Arbeitsgruppe von Prof. Becker) und anschließend bis 1985 Fachreferent bei der Kraftwerk Union AG. 1975 Promotion, 1983 Habilitation für das Fach Mechanik an der TUD. Seit 1985 Professor für Wärme-, Regelungs- und Umwelttechnik an der FHD und seit 1991 Honorarprofessor für Mechanik an der TUD. 89 08_hda_querschnitt_gesamt.indb 89 18.03.2008 16:09:33 Uhr QUERSCHNITT 22 HÖRBÜCHER UND PODCASTING FÜR BILDUNGSZWECKE ERSCHEINUNGSFORMEN – GESTALTUNGSWEISEN – DISTRIBUTION Autorin • Sabine Breitsameter Studentische Mitarbeit: Sebastian Metz, Marco Schleicher, Dominik Schmidt In Zusammenarbeit mit dem Arbeitskreis Hörbuch im Börsenverein des Deutschen Buchhandels Über Buchstaben stolpern, die Wörter im Satz falsch betonen, an den unmöglichsten Stellen nach Luft schnappen, zu leise oder zu laut oder zu langsam sprechen, die Stimme „oben“ lassen, obwohl der Satz eigentlich zu Ende ist, den Text runterrasseln, ohne ihn genau zu verstehen ... Jeder, der selbst einmal versucht hat, einen anspruchsvollen Text vorzulesen, hat erfahren, was man dabei alles falsch machen kann. Dabei ist das Vortragen eines Texts überall dort, wo es um Wissen, Bildung und Kultur geht, eine traditionsreiche und unerlässliche Form der Vermittlung. Kommt ein Text nicht verständlich und überzeugend 'rüber, verpufft der Inhalt und nicht wenige Hörer sehen sich in ihrer Ansicht bestätigt, Zuhören sei eben nun mal schwierig und auditive Darbietungen seien den visuellen Medien unterlegen. Abbildung 1 • Postproduktion 90 08_hda_querschnitt_gesamt.indb 90 18.03.2008 16:09:34 Uhr Hörbücher und Podcasting für Bildungszwecke FACHBEREICH MEDIA 91 08_hda_querschnitt_gesamt.indb 91 18.03.2008 16:09:42 Uhr QUERSCHNITT 22 1 • Thematischer Ausgangspunkt Dass Menschen sich trotz der Dominanz visueller Medien bewusst fürs Zuhören entscheiden: auf dieser Grundlage existiert das Medium Hörbuch und der Hörbuchmarkt. Inzwischen ein gutes Jahrzehnt jung, mit ständigen Zuwachsraten im zweistelligen Bereich ist das Hörbuch eine mediale Erfolgsstory, die der Branche ständig wachsende Umsätze beschert und der auditiven Vermittlung von Inhalten einen zunehmende gesellschaftliche Aufwertung verschafft. Der Markt selbst ist mit geschätzten über 500 Hörbuchverlagen unübersichtlich. Neben zahlreichen etablierten Verlagen oder auch kleinen engagierten Labels gibt es im Bereich Hörbuch inzwischen auch eine nicht geringe Art von „Cottage Home Industry“ dank leicht verfügbarer Audio-Digitaltechnik. Doch produzieren im Windschatten des Booms nicht nur die inzwischen zahlreichen „Küchenlabels“ so manch qualitativ zweifelhaften Schnellschuss, der bei geringem finanziellem Einsatz schnelle Umsatzerfolge verspricht. Vor allem (aber nicht nur) im Bereich der Sachtext-Audio-Produktion steht hochqualitativ Realisiertes neben hörbar schnell und sorglos Aufgenommenem. Nebengeräusche, schlechter Raumklang, dilettantische Schnitte, fehlende Regiekonzepte, unkonzentrierte Sprecher und die gesamte Palette der eingangs genannten möglichen Fehler sind da zu hören und machen deutlich, dass eine ganze Reihe von Hörbüchern mal eben auf die Schnelle eingesprochen wurde. Das jeweilige Resultat wirkt dann oft genug spannungslos, inkompetent und laienhaft. Derartiges dürfte den Rezipienten wohl kaum dazu ermutigen, sich Themen hörend, also mittels Audiobooks, anzueignen. Durch schlechte Produktionen gefährdet die Industrie also auf lange Sicht die Akzeptanz ihrer Erzeugnisse. 2 • Erläuterung des Forschungsgegenstands Unser Forschungsvorhaben führen wir anhand des SachHörbuchs durch. Darunter verstehen wir all diejenigen Audio-Erzeugnisse, die weder auf einer dramatischen noch einer lyrischen oder epischen Textvorlage beruhen, sondern sich einer Thematik sach- und faktenorientiert widmen. Unser Haupt„Ohrenmerk“ gilt dabei denjenigen, die geistes-, sozial-, natursowie wirtschaftswissenschaftliche Themen vermitteln1). Was die formale Gestaltung anbelangt, so beziehen wir die gesamte Bandbreite der Hörbuch-Produktionsästhetik ein: vom monologisch vorgetragenen Text über den Dialog bis hin zu den anspruchsvollen radiophonen Produktionsweisen des Radiofeatures. Qualitativer Maßstab für derartige Produktionen sind seit Ende der 1940er Jahre Programme des öffentlich-rechtlichen Kulturradios. Nirgendwo sonst wurde Vergleichbares produziert. Deren hochwertige Realisationen stellen den Maßstab auch für die Sach-Hörbuchproduktionen auf dem „freien Markt“ dar. 3 • Problemstellung Unser Ziel ist es, mindestens 100 Sach-Hörbücher auf ihre produktionsästhetische Qualität hin auszuwerten. Ausgehend vom Forschungsgegenstand, dem Sach-Hörbuch, hakt unser Projekt an der Vermittlung ein, die ja das Ziel eines jeden Sachtexts sein muss: Wo muss Gestaltung ansetzen, welchen Kriterien muss sie folgen, damit die Produktion und Vermittlung von Sinn und Inhalt funktionieren? Es geht dabei vor allem um zwei Problemstellungen, eine pragmatische und einen kulturelle: Das Vorhaben möchte – zunächst im Bereich der Sachtexte – die Produktion von Hörbüchern fördern, professionalisieren, deren Qualität optimieren, indem es Gütekriterien feststellt, beschreibt und systematisiert. Dies anhand zweier Hauptfaktoren der Realisation, nämlich der Stimme und deren Führung – oder anders ausgedrückt anhand von Schauspieler / in und Regie.2) Darauf aufbauend soll eruiert werden, auf welche Weise diese Kriterien möglichst optimal umgesetzt werden können. Abschließend soll exemplarisch, zur Veröffentlichung der gewonnenen Erkenntnisse, ein Online-Distributionsmodell auf der Grundlage der studentischen Produktionen entwickelt werden. In den folgenden Darlegungen soll der derzeitige Zwischenstand des Forschungsprojekts referiert werden. In diesem geht es um die Wahrnehmung, Beschreibung und Kategori- 1) Ausgeklammert sind typische Ratgeber-Hörbücher und Reisehörbücher sowie Produktionen, die auf Kinder abzielen. Produktionen, die auf junge Erwachsene abzielen, beziehen wir ausdrücklich ein 2) Selbstverständlich spielt auch die technische Realisation (Schnitt, Raumklang, Mikrophonierung u.a.) für die Qualität von Hörbüchern eine wichtige Rolle. Diese fließt auch in unsere Bewertungen mit ein. Doch lässt sich diese als eine hinreichende Bedingung für die Gesamtqualität einer Produktion bezeichnen. Selbst eine technisch optimale Produktion muss als misslungen gelten, wenn beispielsweise eine Fehlbesetzung der Schauspieler vorgenommen wurde oder eine fehlerhafte Regie geführt wurde. Auch eine noch so perfekte technische Realisierung kann inhaltliche und formale Fehler, die für die Vermittlung grundlegend sind, nicht ausbügeln. Gleichfalls muss abgewogen werden, ob ein Hörbuch von geringerer technischer Qualität in seinen funktionalen und emotionalen Aspekten ebenso gut „funktionieren“ kann wie eines von optimalem technischen Standard. 92 08_hda_querschnitt_gesamt.indb 92 18.03.2008 16:09:48 Uhr Hörbücher und Podcasting für Bildungszwecke FACHBEREICH MEDIA Abbildung 2 • Vorbesprechung sierung von Qualitätskriterien. Im Gegensatz zu den hochentwickelten Diskursen über die Bildersprache, die filmische Produktionsästhetik oder die visuelle Semiotik stehen derartige systematische Betrachtungen für den Bereich des auditiv Gestalteten immer noch aus. Damit reiht sich das vorliegende Forschungsprojekt in die neue akademische Disziplin der „Sound Studies“ ein. 4 • Umsetzung des Forschungsvorhabens 4.1 Zur Methodik Wo positioniert sich eine Forschung, die nach ästhetischer Qualität fragt, sich also kritisch versteht? Oft wird hier vorschnell eingewandt, ästhetische Qualität lasse sich nicht feststellen oder sei eine rein individuelle Geschmackssache. Sicherlich ist es richtig, dass Kritik an Ästhetischem sich nicht bis ins Letzte wissenschaftlich absichern läßt. Ein wissenschaftlich unauflösbarer Rest an subjektivem Urteil und zeitgeistiger Konditionierung muss wohl immer bleiben. Gleichwohl braucht derjenige, der Kritik vornimmt, eine wissenschaftliche Ausrüstung, auf die er seine Wertungen gründet. Fundierte, gestalterische Kritikfähigkeit ist im übrigen eine Schlüsselqualifikation in kreativen Berufen. Die Instrumentarien, aus denen unser projektbezogenes wissenschaftliches Equipment besteht, sind akustische Beobachtung, Beschreibung, Wahrnehmungsstrukturierung und ihre begriffliche Systematisierung. Daraus leiten wir Kriterien ab, die relevant für die Qualität von Audiobooks sind. Indem wir Kriterien identifizieren, sie anhand von existierenden Produktionen und Gestaltungsweisen beschreiben, wollen wir, bildlich gesprochen, einen Raum abstecken, der eine Art referentielle Begriffs-Topographie für die Bewertung von Sach-Hörbüchern liefert. Die genannten Kriterien stellen begriffliche oder phä- nomenologische Bezugspunkte her. Diese können und müssen mit- und gegeneinander gewogen werden, und zwar für jede Produktion einzeln. Die wissenschaftliche Vorgehensweise kann damit näherungsweise bestimmen, was eine gelungene Produktion ausmacht. Sie kann jedoch kein theoretisches Rezept dafür liefern, das bei Realisierung zum garantierten Erfolg führt. Indem wir die o.g. Beobachtungen beschreiben und kategorisieren, werden auch die nicht-intelligiblen Anteile, die subjektiv-künstlerischen also, deutlich. In unseren Wertungen streben wir also „Näherungswerte“ an, und halten darüber hinaus den Disput über unsere Beschreibungen, Kriterien und Aussagen für unverzichtbar. Ohne derartige Auseinandersetzungen ist gestalterische und künstlerische Arbeit gar nicht denkbar. Das Vorhaben eine stimmliche Produktionsästhetik zu formulieren ist bislang ohne Vorbild. Weder existieren dazu wissenschaftliche Forschungen, noch wurde das Thema essayistisch fundiert bearbeitet. 4.2 Praktisches Vorgehen Um Vergleichbarkeit zu gewinnen, werten wir die jede Produktion anhand eines Fragenkatalogs aus, der – neben Titel, Sprecher, Regisseur und produzierender Institution – Thema, Textqualität und technische Qualität erfasst sowie mögliche Zielgruppe, Genre und Machart. Besonders viel Raum erhalten Antworten auf die Fragen nach sowohl positiven wie auch negativen Charakteristiken und Wirkungen der sprecherischen Darbietung. Die Bewertungen nimmt jedes Teammitglied einzeln vor. Auch von Teilnehmerinnen und Teilnehmer einschlägiger Lehrveranstaltungen wurden Hörbücher mit Hilfe des Fragebogens ausgewertet. Neben den erfragten Beobachtungen und Einschätzungen ist 93 08_hda_querschnitt_gesamt.indb 93 18.03.2008 16:09:49 Uhr QUERSCHNITT 22 für uns dabei von besonderem Interesse, ob und inwiefern verschiedene Teammitglieder oder auch Seminar-Teilnehmer zu unterschiedlichen Einschätzungen gelangen. Interessant ist hier, dass es meist zu erstaunlich ähnlichen Bewertungen kommt. Diese Bewertungen beruhen auf genauem Zuhören, also der sorgfältigen Beobachtung von sprecherischer Darbietung. In bislang in keinem einzigen Fall kam es zu einer diametralen Einschätzung. Mit erstaunlicher Übereinstimmung wurden in den allermeisten Fällen ähnliche Gestaltungsaspekte kritisiert. Zu unterschiedlicheren Einschätzungen kam es, wenn zerstreut zugehört wurde sowie dann, wenn es darum ging, die jeweiligen Vor- und Nachteile einer Produktion miteinander in ein abschließend bewertendes Verhältnis zu setzen. 5 • Kategorisierung der Kriterien Um Qualität beurteilen zu können, geht es letztlich darum, die Wirkungsabsichten der jeweiligen Produktion zu untersuchen, und festzustellen, mit welchen Mitteln diese realisierbar sind. Wie funktioniert etwas und auf welcher Grundlage? Hierzu haben wir drei Kriterienfelder identifiziert: Das funktionale, das emotionale und schließlich das strategische Kriterienfeld. Hier fragen wir jeweils danach, wie das Funktionieren sowie das Misslingen der drei Aspekte beschrieben gebracht werden kann und zeigen auf, wie die Bereiche miteinander interagieren. Wenn die folgende Darstellung exemplarisch nur Negativ-Beispiele herausgreift, so nicht, weil die Realisierung von SachHörbüchern generell negativ zu bewerten ist, sondern um die Aspekte der Kritik, den das Forschungsvorhaben impliziert, zu verdeutlichen. 5.1 Das funktionale Kriterienfeld Als das oberste Ziel einer Sach-Hörbuchproduktion identifizierten wir die wirksame und glaubwürdige Vermittlung des Inhalts. Das wichtigste Kriterium dafür: der Sprecher / die Sprecherin muss glaubhaft machen, den Text verstanden zu haben. Er / sie muss ihn sich zu eigen gemacht haben. Diese intellektuelle Durchdringung des Texts durch den Sprecher ist die Grundvoraussetzung dafür, dass der Hörer den Text verstehen kann. Ein herausragendes Beispiel für eine fast völlige Ignoranz des funktionalen Aspekts ist die populäre Sigmund-Freud-Edition, welche 2006 – unterstützt durch eine große deutsche Wochenzeitung – in einer elf CDs umfassenden Edition auf den Markt gebracht wurde. Namhafte Persönlichkeiten aus Film und Fernsehen (u.a. Hanna Schygulla, Gudrun Landgrebe, Roger Willemsen sowie der Verleger Michael Krüger) sprachen bekannte Texte Freuds ein. Es ist ein eigentlich interessantes Unterfangen, die inhaltsreichen, auf jeden Fall sprachlich und gedanklich schwierigen Texte zu vermitteln und ihnen dabei den individuellen Stempel anspruchsvoller Schauspieler aufzuprägen. Doch auch ein schwieriges, welches nahezu komplett misslang. Folgendes fehlte überwiegend in den Einspielungen: • Pausen, durch welche Sinneinheiten gegliedert werden, • die richtige Betonungen der Wörter im Satz, • souveräner Wortfluss und Leichtigkeit (keine Hektik, kein „Abmühen“). Aufgrund dieser Mängel ließ der stimmliche Ausdruck oft den Eindruck eines oberfl ächlichen Vortrags entstehen, oft klang der Text abgelesen. „Fremdheitsgefühle“ des Sprechers gegenüber der vorgetragenen Wortwahl, Syntax, dem Inhalt etc. wurden deutlich. Über allem aber wurde der stimmliche Gesamteindruck der jeweiligen Sprecher dem vorgetragenen Text nicht gerecht. Dies drückte sich unterschiedlich aus, lässt sich aber in der Feststellung zusammenfassen, dass die Sprecherinnen und Sprecher von ihrem jeweiligen Image als Filmund Fernsehdarsteller nicht ablassen konnten. Die sehr sachorientierten Texte Freunds wurden – je nach Darsteller – mal mit naivem, mal mit lässigem, mal mit „raunendem“ Unterton gesprochen. Eine Vermittlung der Texte war nicht gewährleistet. So kam es oftmals zu dem skurrilen Effekt, dass die Texte durch die Interpretation widersinning, unauthentisch und „sprechblasenhaft“ wirken. Wer die Texte Freuds kennt, weiß jedoch, dass dies nicht der Fall ist. Die nicht erfolgte, aber gebotene Vermittlung des Inhalts droht gar in ihr Gegenteil umzukippen: in eine Desavouierung des Texts. Sprechern und Regie gelang es nicht, eine Sprechhaltung zu finden und durchzuhalten, welche der Vermittlung gerecht wurde. Allein auf die Tatsache zu bauen, eine inhaltliche Vermittlung werde bereits durch das getragen, was Schauspieler „mitbringen“, reicht nicht aus, um den funktionalen Aspekt der Gestaltung von Hörbüchern umzusetzen. Fazit: Das genannte Beispiel ist symptomatisch: Eine ganze Reihe von Produktionen zeigt, dass folgende, grundlegende Anforderungen zur Vermittlung des Texts immer wieder nicht oder mangelhaft realisiert werden: • Der Text darf nicht abgelesen klingen (sonst kann kein Eindruck des Verstehens aufkommen). 94 08_hda_querschnitt_gesamt.indb 94 18.03.2008 16:09:52 Uhr Hörbücher und Podcasting für Bildungszwecke FACHBEREICH MEDIA • Der Sprecher, die Sprecherin muss den Text an ein Publikum adressieren, also zu jemandem sprechen (sonst fühlt sich im wahrsten Sinne des Wortes keiner angesprochen). • Angemessene, dem Text entsprechende Tempi, sinnvoll gesetzte Pausen und last but not least eine klare Aussprache sind für das Verständnis unabdingbar. 5.2 Das emotionale Kriterienfeld Die emotionale Aspekte gehen über die rein kognitive Vermittlung des Sachverhalts hinaus. Sie färben die Atmosphäre des Hörtexts und bestimmen die Art und Weise, wie die Darbietung das Verhältnis zwischen Hörer und Sprecher implizit realisiert. Emotionale Gestaltungsaspekte bereiten aber auch der Akzeptanz von Vermittlung und Sachverhalt den Boden, etwa bei einer bestimmten Zielgruppe. Sprecher bzw. Sprecherin vermitteln eine grundsätzliche Gestimmtheit dem Text gegenüber (z.B. „frisch“ / „angespannt“, „modern“ / „konservativ“, „locker“ / „seriös“, „gelassen“ / „engagiert“ u.a.). Das individuelle Temperament der Vortragenden wird deutlich und färbt auf Inhalt ab: (z.B. lebhaft, ruhig, jugendlich, intellektuell, sinnlich, weltzugewandt, streng). Auf diese Weise stellt sich eine Sprecher-Persönlichkeit dar, die im Bewusstsein der Rezipienten oft mit der Persönlichkeit des Autors identifiziert wird (z.B. als weise, humorvoll, freundlich, distanziert, tiefsinnig, selbstironisch, charismatisch, aber auch als jeweils gegenteilig etc.). Emotionale Gestaltungsaspekte spielen sich innerhalb einer gewissen Bandbreite ab, zwischen ernster Sachlichkeit bis hin zu lockerer Fröhlichkeit. Letztere kann in unverbindliche Anbiederung abkippen, erstere in trockene Langeweile und „erhobenen Zeigefinger“. Was an den genannten Rändern (noch) akzeptabel ist, noch Vermittlung darstellt, ist diskutabel, unterliegt Geschmack und Zeitgeist und muss von den Produzierenden genau austariert werden. Allzu schnell kann das inhaltliche Funktionieren des Texts umschlagen in emotionale Unannehmbarkeit: dort etwa, wo Vermittlung zu autoritärem Wahrheitsanspruch wird, zum raunenden Märchenerzähler oder sich mit aufgesetzter guter Laune peinlich aufdrängt. Auch hierfür gibt es zahlreiche Beispiele in Hörbuchproduktionen. Bereits bei der Beschreibung der funktionalen Aspekte ist an etlichen Stellen deutlich geworden: „Reine“ Vermittlung ist geradezu undenkbar. Sie schlägt stets in ihr Gegenteil um. Das folgende Beispiel zeigt, dass die faktenorientierte Sprechhaltung von Nachrichtensprechern, die ja einem journalistischen Objektivitätsgebot folgt, emotionalisieren kann, und zwar negativ. So misslingt es dem Tagesschausprecher Jo Braune und seiner Regisseurin Gabriele Kreis in einer Hörbuchproduktion zum Thema Körpersprache die nachrichtliche Sprechhaltung des Interpreten zu überwinden. Dadurch wirkt die Produktion übermäßig sachlich, das Zuhören wird zu einer mühsamen Konzentrationsaufgabe, der Text wirkt trocken, langweilig und wenig plastisch. Eine anders angelegte Regie und damit verbundene sprecherische Gestaltungsweise hätten hier einen Eindruck erzielen können, der Text und Thema interessanter und buchstäblich ansprechender vermittelt. Fazit: Jede nicht geglückte Umsetzung des funktionalen Aspekts schafft auf der emotionalen Ebene eine unerwünschte und inadäquate Wirkung. Emotionale Wirkungsaspekte müssen vorab reflektiert und „angepeilt“ werden. Dies geschieht durch das Festlegen einer redaktionell-dramaturgischen Grundlinie, durch ein genaues Casting der Sprecherinnen und Sprecher und durch eine sorgfältige Regie, 5.3 Das strategische Kriterienfeld Strategische Aspekte zielen auf die Positionierung des jeweiligen Hörbuchs im Kulturleben, vor allem aber auf dem Hörbuchmarkt. So ist etwa die Ausrichtung auf eine spezielle Zielgruppe, etwa auf junge Erwachsene, eine strategische Entscheidung, die sich zunächst in der Wahl der Themen äußert, sich danach aber vor allem in der Anwendung emotionaler Gestaltungsmittel niederschlägt. Beim Casting werden sicherlich andere Sprecher ausgewählt, es wird ein anderer Regiestil gepflegt als bei Produktionen, die auf das übliche „reifere“ Publikum zielen. Aus der zunehmend „jüngeren“ zielgruppengemäßen Positionierung sind in den letzten Jahren zum Teil mitreißende Realisationen entstanden, die Maßstäbe gesetzt haben. Doch nicht selten beeinflussen strategische Überlegungen die funktionalen und emotionalen Aspekte negativ: Um auf dem Markt bestehen zu können, spielen Produktionskosten eine Rolle. Lange Herstellungszeiten in teuren Studios werden also eher vermieden. Dies hat zum Nachteil, dass auch das Zusammenwirken von Regie und Sprechern zeitlich begrenzt wird. Kritisches Regie-Feedback und dessen stufenweise Umsetzung durch den Schauspieler haben also nur wenig Raum. Gerade bei der Umsetzung von sprachlich schwierigen und intellektuell anspruchsvollen Texten wie der erwähnten Sigmund-Freud-Edition muss sich dies negativ auswirken. In et95 08_hda_querschnitt_gesamt.indb 95 18.03.2008 16:09:53 Uhr QUERSCHNITT 22 Abbildung 3 • Postproduktion 96 08_hda_querschnitt_gesamt.indb 96 18.03.2008 16:09:53 Uhr Hörbücher und Podcasting für Bildungszwecke FACHBEREICH MEDIA lichen Produktionen hat man den Eindruck, dass eine Regie nicht stattfand. Aus Kostengründen werden bei etlichen Hörbüchern offensichtlich auch Laien als Sprecher herangezogen. Bemerkbar macht sich das dort, wo elementare funktionale Gestaltungsaspekte nicht befolgt werden. Sprecher, die den Eindruck von Laien erwecken, wirkten oftmals besonders hektisch. Ihre Darbietungen klingen meist abgelesen und oft sprechen sie „zum Papier“. Dem gegenüber erfolgt die Vermarktung zahlreicher Hörbücher auch und gerade bei Sachtexten häufig mittels prominenter Film- und Fernseh-Schauspieler und Schauspielerinnen. Audio-Regisseurinnen und -Regisseure, auch wenn sie namhaft sind, werden allerdings nirgendwo besonders hervorgehoben. Oft muss man die Namen der Regie mühsam im CD-Booklet suchen. Dass die berühmten Schauspieler in aller Regel auf das visuelle und nicht auf das auditive Medium „geeicht“ sind, wird von den Hörbuch-Verlagen offensichtlich nicht problematisiert. Ausschlaggebend erscheinen zumeist Image und Grad der Prominenz, und nicht die Befähigung Audiobooks kompetent einzusprechen. Nicht nur die Sigmund-Freud-Edition hat dies deutlich gezeigt. Eine prominente Besetzung ist sicherlich ein effizienter Kaufanreiz, womöglich aber ein lediglich kurzfristiger. Wo die funktionalen und emotionalen Kriterien nicht gewahrt werden, und dies – so hat sich herausgestellt – ist bei einer Besetzung mit „Celebrities“ oft der Fall, ist zu vermuten, dass die Akzeptanz der Produktion und diejenige des Mediums selbst darunter leiden. Zu den strategischen Aspekten zählt auch, wenn die Produktion eines bestimmten Audiobooks parallel zum Erscheinen eines gleichnamigen Buchs oder Films veranlasst wird. Hier geht es dann oftmals darum, etwa mit einem Titel oder Autor in allen Medien vollständig präsent zu sein oder das Sortiment an Merchandising-Produkten zu einem Thema um ein Hörbuch zu komplettieren. Fazit: Wo strategische Kriterien die funktionalen und emotionalen Aspekte dominieren, sind die Produktionen durchweg von geringer ästhetischer Qualität. matischer Fachleute und Experten, bestätigen hier die Regel. Gerade daran wird deutlich: Die Gewichtung der drei genannten Kriterienfelder muss in Hinblick auf die qualitative Bewertung flexibel festgestellt werden. Unabdingbare Grundlage für ein gelungenes Sach-Hörbuch bleibt aber die intellektuelle Durchdringung des Texts durch Sprecherin oder Sprecher. Diese ist nicht inszenierbar, aber auf ihr setzen die Inszenierungsmöglichkeiten vermittelnder Sprechhaltungen auf. Die Regie dient dazu, den Sprecher oder die Sprecherin durch den Text konsequent in der gewählten Sprechhaltung zu führen, von Anfang bis Ende und dabei über emotionale Qualitäten eine nuancierte Mehrdimensionalität der Darbietung zu erreichen. Regie erfordert Einfühlsamkeit und Sensibilität ebenso wie Distanz, wobei sie das Funktionieren des Texts als großes Ganzes im akustischen „Blick“ haben muss. Dies muss auch strategische Aspekte beinhalten, z.B. zielgruppen-, kosten- und marktgerechte Produktionsweisen. Auf den hier beschriebenen Erkenntnissen kann die FolgePhase unseres Projekts aufbauen, nämlich die erwähnten Kriterien in eigene Hörbuch-Produktionen umzusetzen und sie auf ihre Praxis-Tauglichkeit zu überprüfen. Kurzbiografie • Prof. Sabine Breitsameter lehrt Sound Design and Production am Fachbereich Media der Hochschule Darmstadt. Seit Mitte der achtziger Jahre ist sie Radiomacherin für die Kulturprogramme der ARD und arbeitet als Autorin, Regisseurin und Redakteurin in den Bereichen Hörspiel, Künstlerisches Feature, Akustische Medienkunst und elektroakustische Musik. Als Leiterin internationaler Festivals und Symposien kuratierte sie u.a. für „Ganz Ohr – Symposium über das Zuhören“ (Kassel 1997, parallel zur Documenta), StadtStimmen (Landeshauptstadt Wiesbaden 1998), „Klang, Medien und urbaner Raum“ (Akademie der Künste Berlin 2005) sowie „Radio-Revolten“ (Halle 2006). 2005-2006 war sie Intendantin des temporären deutsch-polnischen Künstlerradios „Radio_Coperni6 • Zum Zwischenstand des Forschungsvorhabens cus“. An der Universität der Künste Berlin ist sie seit 2003 Akustische Beobachtungen, Beschreibungen und die vorlie- Mitbegründerin des Master-Studiengangs Sound Studies. Dort gende Kategorisierung haben ergeben, dass nicht allein die hat sie bis dato eine Gastprofessur für Experimentelle KlangAuswahl des Sprechers, sondern auch eine gelungene Regie gestaltung inne. Zahlreiche internationale Preise und Jurymitentscheidend ist für die Qualität einer Hörbuch-Produktion. gliedschaften, u.a. beim Deutschen Hörbuchpreis, dem Prix Ausnahmen, wie etwa die Einspielung einiger seltener charis- Ars Electronica. 97 08_hda_querschnitt_gesamt.indb 97 18.03.2008 16:09:57 Uhr QUERSCHNITT 22 ENERGIE-CONTROLLING IN KLEINEN UND MITTLEREN KOMMUNEN? Autor • Hans-Jürgen Zubrod 1 • Über das Ob und das Wie Energie-Themen sind „in“. Klima ist eigentlich immer aktuell, seit den Klima-Gipfeln aber ganz besonders. Geiz bedarf keiner besonderen Rechtfertigung mehr, nachdem er jetzt sogar erotisch legitimiert ist. Kann es eine bessere Gemengelage geben, um eine bislang so spröde Thematik wie Energie-Einsparung in Kommunen aufzugreifen? Wohl kaum! Als Treiber für eine vom zfe in 2007 geförderte Vorstudie am Fachbereich Wirtschaft sind trotzdem andere Faktoren maßgebend gewesen: • Langjährige Erfahrungen in umfangreichen Projekten des Studiengangs Energiewirtschaft haben beträchtliche Einsparpotenziale bei der Bewirtschaftung kommunaler Liegenschaften aufgedeckt, zugleich die Frage entstehen lassen, was ihre tatsächliche Erschließung hindert. • Einsparmöglichkeiten bei den viel zitierten „leeren Kassen“ ungenutzt zu lassen, ist eigentlich ein Paradoxon. Oder nicht? Gibt es Zusammenhänge mit der Art und Weise, wie das Finanzmanagement der Kommunen erfolgt? Dies knüpft unmittelbar an Fragestellungen aus der Lehre im energiewirtschaftlichen Studiengang des Fachbereichs an. • Die in der Projektarbeit zum Einsatz kommenden Analysetechniken für kommunale Energie-Einsparung – von einer Grobanalyse über die Feinanalyse zur Maßnahmenplanung einschließlich Wirtschaftlichkeitsrechnung – haben auch außerhalb des Studiengangs viel Resonanz gefunden (so auf der Cebit 2006) und zur Etablierung eines Arbeitskreises aus öffentlichen und privaten Einrichtungen geführt. Der Zusammenschluss versteht sich als Ergebnis eines längeren Diskussionsprozesses als „Initiative nutzerfreundliche Software zum Energiecontrolling (INSE)“. In dem INSE-Kürzel kommen einige Hypothesen zum kommunalen Energiemanagement zum Ausdruck, die aus der Arbeitsgruppen-Diskussion und der Projekterfahrung resultieren: • Es bedarf der Initiative, einen Automatismus zum EnergieControlling gibt es nicht. • Energie-Controlling muss nutzerfreundlich ausgestaltet sein, damit es akzeptiert wird und in der Gemeinde selbst betrieben werden kann. Das bedeutet primär Verzicht auf einen zu hohen Komplexitätsgrad. • Energie-Controlling muss, damit es nicht zufällig bleibt, eine Software-Anbindung finden, die Systematisierung erlaubt. • Für die Software-Anbindung sind einfache Lösungen zumindest für kleine und mittlere Kommunen) ausreichend, weil sie bereits zu erheblichen Einsparungen führen können. Weitere Einsparungen sind i. d. R. nur durch überproportional wachsenden Software-Aufwand realisierbar, der mit vorhandenen personellen Ressourcen ggf. nicht mehr bewältigt werden kann. 2 • Der Projektantrag Als zentrales Endziel wurde die Erleichterung des energetischen Gebäudemanagements in öffentlicher und kommunaler Verwaltung mit Hilfe einfacher und benutzerfreundlicher Software-Instrumente definiert. Als einzubeziehende (Teil-) Bereiche wurden genannt: • Erfassung und ursachengerechte Zuordnung von Verbrauchsdaten für Brennstoffe, Strom und Wasser (z. Zt. feststellbare Mängel: keine aktuellen Daten, Witterungsbereinigung fehlt, Daten lassen sich nicht eindeutig einzelnen Verbrauchsstellen zuordnen) • Energiebedarfsermittlung auf Basis der Objektbeschaffenheit und der installierten Anlagentechnik (z. Zt. feststellbare Mängel: überhaupt keine Bedarfsrechnungen, deshalb auch keine Vergleiche zu Durchschnitts- und Best-Werten möglich) • Ableitung und Beurteilung von Sanierungsmaßnahmen (z. Zt. feststellbare Mängel: keine Aufdeckung des Sanierungsbedarfs wegen unzureichender Verbrauchsdaten und /oder fehlender Bedarfsermittlungen, keine mittel- bis längerfristigen Betrachtungen aufgrund des Prinzips der Jährlichkeit des Haushaltsplans) 98 08_hda_querschnitt_gesamt.indb 98 18.03.2008 16:09:58 Uhr Energie-Controlling in kleinen und mittleren Kommunen? FACHBEREICH WIRTSCHAFT Die Mitglieder des INSE-Arbeitskreises • IGDV Zentrum für Advance Learning, Medien und Simulation • Baugenossenschaft Ried, Groß Gerau • Bergische Universität Wuppertal, Wuppertal • enmore AG, Griesheim • Gemeinde Büttelborn, Büttelborn • Ingenieurbüro Dieter Meisel, Bickenbach konnten als Kooperationspartner für das geplante Projekt leicht gewonnen werden, war doch eine organisatorische Absicherung und inhaltliche Anreicherung seitheriger Aktivitäten erwartbar. Der Projektleitung konnte (und wollte) sich der Verfasser nicht entziehen, zumal die wesentliche Beteiligung des Geschäftsführers des IGDV bei Steuerung und Kontrolle Entlastung und fachlichen Zugewinn versprach (was sich denn genau so auch realisierte). Einigkeit bestand bei allen Verfahrensbeteiligten auf dem Weg zum anspruchsvollen Endziel (zunächst) eine bescheidenere Vorstudie mit drei Aufgabenstellungen durchzuführen: • In einem Clearing-Prozess mit kooperationsbereiten Kommunen sind die Erwartungen an eine nutzerfreundliche Software zum Energiecontrolling zu konkretisieren. Die Anknüpfungsmöglichkeiten an vorhandene Datenbestände müssen grob abgeschätzt werden. Außerdem ist eine Erhebung zum Umfang des erwartbaren finanziellen Engagements der Gemeinden bei der Softwarenutzung erforderlich. • Es ist ein in Flash programmierter Prototyp zur speziellen Berücksichtigung der Oberflächenstruktur (samt Anforderungsanalyse aus Softwaresicht und der Umsetzung) zu erstellen. • Finalisierung und Implementierung in den Kommunen einschließlich der damit verbundenen Schulungserfordernisse können nur in einem größeren Forschungszusammenhang erfolgen. Die entsprechenden Förderungsmöglichkeiten im nationalen und europäischen Rahmen sollen in der Vorstudie systematisierend geprüft werden. Des Weiteren soll der jetzige Kooperationszusammenhang noch ausgeweitet werden, insbesondere auf ausländische Partner. Sehr erfreulich für INSE-Gruppe und Verfasser war der positive Bescheid der zfe-Leitung. Das beantragte Finanz-Volumen – genau an der Kleinantrags-Grenze platziert – wurde ohne Abstriche bewilligt, so dass insbesondere der Einsatz studentischer Hilfskräfte und die Vergabe von Werkverträgen in einem den Fragestellungen angemessenen Rahmen ermöglicht wurden. Dem Projektleiter stand eine Deputatsreduzierung von 2 SWS zur Verfügung. 3 • Kommunales Energie-Controlling? – Fragen an die Betroffenen Der Projektantrag geht von der begründeten Vermutung aus, dass es tatsächlich einen Bedarf an einem kommunalen Energie-Controlling gibt, das durch Einfachheit und Software-Unterstützung geprägt ist. Aber wie begründet ist die Vermutung wirklich? Stellen die Kommunen, mit denen im Rahmen der Projektarbeit bisher Arbeitsbeziehungen entstanden sind, einen quasi repräsentativen Querschnitt dar? Gibt es regionale Besonderheiten? Wie belastbar sind die Erfahrungen der Kooperationspartner? Wären die Kommunen, denen man geeignete Controlling-Instrumente an die Hand geben will, auch zu einer nicht nur ideellen Honorierung bereit? Setzen sie mehr auf externe Berater als die Möglichkeiten der eigenen Verwaltung? Es stellen sich viele Fragen. Die Antworten kennen eigentlich nur die Betroffenen. Der Schritt zu ihrer Befragung ist fast zwingend. Doch die Tücken liegen im Detail. Da gibt es die große Zahl von Kommunen in der Bundesrepublik Deutschland. Will man auch die Gemeindeverbände mit einbeziehen? Praktische Erwägungen legen schnell eine Beschränkung nahe. Also: Verzicht auf die Gemeindeverbände, Verzicht auch auf die ganz kleinen und die größeren Gemeinden! Für die zu untersuchenden Fragen scheinen Gemeinden mit 7.500 bis 25.000 Einwohnern am interessantesten. Kleinere Kommunen haben weniger Liegenschaften zu verwalten, der Überblick erfordert (vermutlich) kein besonderes Instrumentarium. Größere Gemeinden haben wahrscheinlich ihre Controlling-Entscheidungen schon getroffen, bedienen sich ggf. professioneller Hilfe von außen. Aber: Die Zahl verbleibender Gemeinden ist immer noch stattlich. Organisatorische Erleichterung verspricht die Online-Befragung. Aber: Wie macht man die Kommunen auf sie aufmerksam? Natürlich per E-Mail! Aber wo sind die E-Mail-Adressen? Leider nicht ohne weiteres verfügbar, leider nicht immer aktuell! Statistische Landesämter sind hilfsbereit, können aber bestimmte Leistungen nur gegen Entgelt erbringen. Es hat, um es abzukürzen, eines gewaltigen Such- und Organisationsauf99 08_hda_querschnitt_gesamt.indb 99 18.03.2008 16:09:59 Uhr QUERSCHNITT 22 wands bedurft, um eine Datenbank mit E-Mail-Adressen anzulegen (deren Zuverlässigkeit sich in vielen Einzelfällen immer noch als wackelig erwiesen hat). Trotzdem: 375 von 1814 Gemeinden haben sich an der recht umfänglichen Umfrage beteiligt, 111 davon sogar alle 36 Fragen komplett beantwortet; 42 Gemeinden haben ihre Bereitschaft zu einem vertiefenden Interview bekundet. Der „Fragebogen zu Stand und Erwartungen an ein (kommunales) Energie- und Verbrauchscontrolling“ war in fünf Teilbereiche gegliedert: • Allgemeine Informationen: Hier ging es um Bevölkerungsstand, das Haushaltsvolumen der Kommune, Wirtschaftskraft und ihre Verteilung auf die Wirtschaftssektoren, die Arten der kommunalen Haushaltswirtschaft (Kameralistik, erweiterte Kameralistik oder Doppik), Anzahl und Nutzung kommunaler Liegenschaften, Umfang und Qualität der Dokumentation von Lage- und Bauplänen sowie die Institutionalisierung von Funktionen im Energie- und Umweltbereich. • Erfassung der Verbrauchsdaten für die selbst bewirtschafteten Gebäude: Die Fragen dienten der Ermittlung, ob überhaupt, in welchem Umfang und von wem die Ist-Verbräuche an Energie und Wasser erfasst und wo sie ggf. dokumentiert werden. Dass in diesem Bereich vieles unterbleibt bzw. nur sporadisch erfolgt, war grundsätzlich bekannt. Die Befragung sollte nähere Einzelheiten erkennen lassen. • Auswertung der Verbrauchsdaten für die selbst bewirtschafteten Gebäude: Für eine Analyse der Verbrauchsdaten ist deren Erfassung notwendige Voraussetzung. Wird sie aber auch tatsächlich vorgenommen? In welchem Umfang und mit welcher Intensität? Wie hoch wird der personelle Aufwand eingeschätzt? Finden besondere Personal-Schulungen statt? Wird Software eingesetzt und welche ggf.? Mit dem dritten Fragenkomplex sollte der Ist-Zustand der Verbrauchsdaten-Auswertung erfasst werden. • Zukünftige Erfassung der Verbrauchsdaten für die selbst bewirtschafteten Gebäude: Für das eigentliche Projektziel von besonderem Interesse ist natürlich die Frage nach Absichten und Planungen der Gemeinde für ein künftiges Energie-Controlling. Gibt es überhaupt Unbehagen am status quo, was ggf. soll verbessert werden? Wie stark differenziert und in welchem zeitlichen Rhythmus sollen Energieverbrauchsdaten erfasst und organisatorisch verwaltet werden? Sollen Controlling-Aktivitäten durch die Verwaltung selbst erfolgen (ggf. durch einen Energie-Beauftragten) oder eher durch externe Personen (Werkvertrag) oder Einrichtungen (Ingenieurbüros)? • Perspektiven: Der abschließende Fragebogen-Bereich sollte in Erfahrung bringen, ob die Kommune bereit wäre sich an der angestrebten einfachen Software-Lösung zum Energie-Controlling auch zu beteiligen und zwar einmal auf der fachlichen Ebene, nicht zuletzt jedoch auch in finanzieller Hinsicht (Programmerwerb und /oder laufende Nutzungsentgelte). Fehlende „Resonanz“ wäre für die Projektidee nicht gerade förderlich. 4 • Kommunales Energie-Controlling? – Äußerungen der Betroffenen Die Online-Umfrage fand von Aug. bis Okt. 2007 statt. Von den angeschriebenen Kommunen reagierten gut 20 %. Die Reaktionen erfolgten schnell, i. d. R. innerhalb einer Woche. Nicht immer – aber doch bei knapp 30 % der antwortenden Gemeinden – war der Fragebogen auch bis zum Ende ausgefüllt: Der Umfang war wohl etwas zu groß geraten. Aber auch so konnten wichtige Erkenntnisse gewonnen werden, zumal es weniger um quantitative Analysen mit Auswertungen bis zur zweiten Nachkommastelle ging. Vorrangig interessierte, ob bei den kleinen und mittleren Kommunen Bedarf an einem systematisierten, aber doch einfachem Energiecontrolling besteht und Bereitschaft vorhanden ist, entsprechende Software-Angebote auch (entgeltlich) zu nutzen. Summarisch kann gesagt werden, dass für eine Mehrzahl der Kommunen sowohl der Bedarf als auch die Nutzungsbereitschaft eindeutig bestätigt wurden. Für den Tag der Forschung an der Hochschule Darmstadt am 06.11.07 wurden die Umfrage-Ergebnisse und ihre Interpretationen in einer Schnellauswertung in Form von 9 Statements zusammengefasst, basierend auf den Häufigkeitsverteilungen zu den Antwortmöglichkeiten der jeweiligen Fragestellungen. Die nachfolgenden Ausführungen beziehen sich hierauf. Auf eine Differenzierung nach Gemeindegrößenklassen ist (vorläufig) verzichtet worden. 100 08_hda_querschnitt_gesamt.indb 100 18.03.2008 16:10:00 Uhr Energie-Controlling in kleinen und mittleren Kommunen? FACHBEREICH WIRTSCHAFT Statement 1 • Der Umfang kommunaler Liegenschaften ist erheblich, ihre Bewirtschaftung erfolgt weit überwiegend durch die Gemeindeverwaltungen selbst: 0 20 80 60 40 100 Wie viele bebaute Liegenschaften stehen im Eigentum der Gemeinde? (n = 132) bis 50 >50-100 >100-200 >200-300 >300-500 mehr als 500 68 38 15 5 1 5 Wie viele Prozent davon werden unmittelbar von der Gemeinde bewirtschaftet? (n = 131) bis 20 % >20 %-40 % >40 %-60 % >60 %-80 % >80 %-100 % 14 4 3 8 102 Statement 2 • (ohne Grafik) Der Informationsstand zu Lageplänen, Bauplänen und energiebezogenen Objektdaten ist befriedigend bis gut. Defizite sind erkennbar, in ihrem Ausmaß aber nicht als dramatisch zu bezeichnen. Statement 3 • Eine systematische und vollständige Erfassung der Energieverbrauchsdaten erfolgt in weniger als der Hälfte der Kommunen, wird aber von nahezu allen Kommunen für erforderlich gehalten. 0 20 60 40 80 100 Werden grundsätzlich die Verbrauchsdaten für Heizung, Strom und Wasser systematisch erfasst? (n = 123) Ja, vollständig Ja, teilweise Nein 58 49 16 Halten Sie ein dauerhaftes und systematisches Energie-Controlling für erforderlich in Bezug auf die Verbrauchsmenge? (n = 110) Ja Nein 103 7 Halten Sie ein dauerhaftes und systematisches Energie-Controlling für erforderlich in Bezug auf die Verbrauchskosten? (n = 110) Ja Nein 101 9 101 08_hda_querschnitt_gesamt.indb 101 18.03.2008 16:10:01 Uhr QUERSCHNITT 22 Statement 4 • (ohne Grafik) Wenn eine Verbrauchsdatenerfassung erfolgt, ist die Gewinnung der Ergebnisse fehleranfällig (Eigenablesung) und die Speicherung organisatorisch und zeitlich unbestimmt. Statement 5 • Mehr als die Hälfte der Gemeinden strebt keine Änderung der (überwiegend internen) Verbrauchsdatenerfassung an, will sie aber in Richtung Automatisierung und verursachungsgerechte Zuordnung entwickeln. 0 20 80 60 40 100 Sind Änderungen an der Verbrauchsdatenerfassung beabsichtigt? (n = 113) Ja Nein 45 68 Wenn ja: Streben Sie die Erfassung der Verbrauchsdaten in automatisierter Form und verursachungsgerechter Zuordnung an? (n = 43) Ja Nein 38 5 Durch welche Personen/Institutionen würden Sie ein Verbrauchscontrolling zukünftig durchführen lassen? (n = 27) Durch den für die Technik Verantwortlichen Durch Externe per Werkvertrag Durch eine noch zu schaffende Stelle eines Energiebeauftragten Durch andere 20 2 5 11 102 08_hda_querschnitt_gesamt.indb 102 18.03.2008 16:10:01 Uhr Energie-Controlling in kleinen und mittleren Kommunen? FACHBEREICH WIRTSCHAFT Statement 6 • Von einem Gebäudemanagement-Controlling-System wird in erster Linie die Aufdeckung energetischer Schwachstellen erwartet, die eher im technischen Bereich als im Nutzerverhalten vermutet werden. 0 20 40 60 80 100 Welche Anforderungen und Erwartungen würden Sie im einzelnen an ein Controllingsystem für Gebäudemanagement stellen? (Mehrfachnennung möglich) (n = 557) Vergleichsmöglichkeit mit Gebäude-Standards Vergleichsmögl. mit Gebäuden ähnlichen Nutzungsprofils Darst. der bereinigten Verbrauchsmengen in zeitl. Entwicklung Darstellung der Verbrauchskosten in zeitl. Entwicklung Benennung potenzieller energetischer Schwachstellen Vergleichsmöglichkeit mit theoretischen Werten Ausarbeitung von Vorschlägen zur Verbrauchsreduktion Sonstige 85 82 78 79 87 56 83 7 Viele Energiekosten lassen sich bereits durch ein geändertes Nutzerverhalten einsparen. Wie hoch schätzen Sie das Einsparpotenzial (in Prozent des bisherigen Verbrauchs) für Energie und Wasser in der Gemeinde ein? (Mittelwerte, Angaben in %) Heizenergie Strom Wasser 15,13 13,13 11,17 103 08_hda_querschnitt_gesamt.indb 103 18.03.2008 16:10:02 Uhr QUERSCHNITT 22 Statement 7 • (ohne Grafik) Tarifcontrolling findet schon jetzt in nahezu einem Drittel der Gemeinden statt, der Anteil könnte auf zwei Drittel steigen. Statement 8 • An der Entwicklung eines Energie-Controlling-Systems würden sich die Gemeinden fachlich eher weniger beteiligen, finanziell in noch geringerem Umfang. 0 60 40 20 80 100 Wären Sie bereit sich an der Entwicklung eines EDV-Programms zum Verbrauchscontrolling fachlich zu beteiligen? (n = 113) Ja Nein 27 86 Wären Sie bereit sich an der Entwicklung eines solchen Programms auch finanziell zu beteiligen? (n = 113) Ja Nein 10 103 Statement 9 • Dagegen stehen die Kommunen einem entgeltlichen Programmerwerb mit künftiger Softwarepflege umso bereitwilliger gegenüber, je geringer die Kosten sind. 0 60 40 20 80 100 Welche Kosten für den Erwerb eines solchen Programms werden als akzeptabel angesehen (n = 95) bis zu 2.000 € >2.000-4.000 € >4.000-6.000 € >6.000-8.000 € >8.000-10.000 € mehr als 10.000 € 51 27 11 2 2 2 Welche monatlichen Kosten für die Softwarepflege werden als akzeptabel angesehen? (n = 96) bis zu 50 € >50-100 € >100-200 € mehr als 200 € 59 30 5 2 104 08_hda_querschnitt_gesamt.indb 104 18.03.2008 16:10:02 Uhr Energie-Controlling in kleinen und mittleren Kommunen? FACHBEREICH WIRTSCHAFT 5 • Zusatzerkenntnisse aus vertiefenden Interviews Fragen mit standardisierten Antwortmöglichkeiten haben ihren festen Platz in der sozialwissenschaftlichen Forschung. Im Online-Fragebogen ist dieser Typus – von wenigen Ausnahmen abgesehen – verwendet worden. Das hat eine rasche Auswertungsmöglichkeit eröffnet, Statistik-Programme haben wertvolle Unterstützung geleistet. Für die „Zwischentöne“ eignet sich das Verfahren weniger. Guter Brauch ist deshalb die Ergänzung durch freie Interviews, bei denen zwar auch ein Leitfaden vorgesehen ist, aber differenzierteres Antwortverhalten ermöglicht wird (was nicht notwendig die Auswertung erleichtert). Als Bestandteil der Vorstudie waren deshalb von Anfang an auch Interviews mit ausgewählten Kommunen vorgesehen. Der Online-Fragebogen enthielt eine Ankreuz-Möglichkeit, um Bereitschaft hierfür zu signalisieren. Das ist in nicht wenigen Fällen erfolgt. Viele Gespräche wurden bereits geführt, einige sind noch in Vorbereitung. Da der Vorgang noch nicht abgeschlossen ist, sind die nachfolgenden Ausführungen weniger Ergebnis systematischer Auswertung als eine Ansammlung auffälliger Einzelaspekte. Energiemanagement und Energie-Controlling sind regelmäßig dem Namen nach zwar bekannt, befinden sich in der Praxis aber nicht selten quasi auf Null-Niveau. Zwar ist ein Unbehagen an steigenden Energieaufwendungen festzustellen, einer energischen Ursachenanalyse stehen aber vielfach „Rücksichtnahmen“ gegenüber. Es ist Tradition, dass Vereine, Verbände, Gruppen usw. kommunale Liegenschaften unentgeltlich nutzen können. Wer will da schon monieren, dass Beleuchtungen nicht ausgeschaltet werden, Kühlschränke ungefüllt auf Hochtouren laufen oder die Heizung noch gemütliche 24 Grad produziert, auch wenn sie gar nicht mehr benötigt werden. Für welchen Zweck sollten Energieverbräuche festgehalten und dokumentiert werden, wenn doch „nichts passiert“, Rechnungen klaglos von der Kämmerei gezahlt werden, die die Liegenschaftsabteilung möglicherweise nicht einmal zu Gesicht bekommt? In solchen Fällen mag schon als Riesenfortschritt angesehen werden, wenn trotzdem eine systematisch(er)e und regelmäßigere Energiedatenerfassung durchgesetzt und eine Objektzuordnung vorgenommen wird. Die bloße Dokumentation von Verbräuchen kann Energiekostenbewusstsein bewirken und zu sparsameren Umgang mit Strom, Gas und Wasser motivieren. Für Gemeinden, die sich in solcher oder ähnlicher Situation befinden, ist fast schon eine Null-Version von Software-Unterstützung von Vorteil, wenn sie nur Ordnung in den Energiedaten-Wirrwarr bringt, ohne gleich Benchmarking o. ä. zu betreiben. Auf der anderen Seite befinden sich Gemeinden, deren Dokumentation vorbildlich ist und in jährlichen Energieberichten gipfelt. Sie fassen gebäudespezifisch die Verbräuche von Strom, Wärme und Wasser zusammen, die von den Hausmeistern monatlich ermittelt und in eine Datenbank eingegeben werden. Regelmäßig ist auch eine Witterungsbereinigung enthalten. „Ausreißer“ lassen sich so leicht erkennen. Wenn auch noch die energiebezogenen Gebäudedaten und die Anlagentechnik mit erfasst sind, lassen sich auf Grundlage der (jährlich fortzuschreibenden) Energieberichte mit geringem Zusatzaufwand Planungs- und Wirtschaftlichkeitsrechnungen für Energieeinspar-Investitionen durchführen. Ob für Gemeinden dieses Typs noch die angestrebte nutzerfreundliche Software-Lösung nötig ist, mag fraglich bleiben. Immerhin können sie Vorbildfunktion für die Entwicklungsprozesse derjenigen Kommunen wahrnehmen, die erst am Anfang eines nachhaltigen Energie-Controllings stehen. Misstrauen ist gegenüber externem Energiemanagement festzustellen. Insbesondere Contracting-Angebote stoßen auf große Vorbehalte. Sie gehen teils auf schlechte Erfahrungen zurück (wobei offen bleibt, ob diese nur so empfunden wurden). Auch die Langfristigkeit der abzuschließenden Verträge stört. Dass man nicht mehr „Herr des Verfahrens“ ist, wird als entscheidender Nachteil empfunden. Das stärkt den Projekt-Ansatz, „eigenes“ Energie-Controlling zu ermöglichen, indem die dafür erforderlichen (einfachen) Instrumente der Verwaltung zur Verfügung gestellt werden. 105 08_hda_querschnitt_gesamt.indb 105 18.03.2008 16:10:03 Uhr QUERSCHNITT 22 6 • Anforderungen an eine Software-Lösung zum „einfachen“ Energie-Controlling Bei einem Energie-Controlling, das zwar IT-gestützt verläuft, aber nicht in die Hände von (externen) Spezialisten gegeben werden soll, ist größter Wert auf einfachen und intuitiven Zugang zu legen. Der Benutzer ist mit den und nur den Abfragen und Informationen zu konfrontieren, die für „sein“ EnergieControlling-Problem relevant sind. Im Einzelnen sind folgende Teilbereiche zu organisieren: • Stammdaten-Eingabe für die zu untersuchenden Objekte (Name, Anschrift usw.) • Objektspezifische Eingabe der Ist-Energieverbrauchsdaten • Objektspezifische Eingaben zur Energiebedarfsermittlung (Bauphysikalische Angaben zur Objektbeschaffenheit, installierte Anlagentechnik) • Rückgabe von Energieverbauchs-Kennzahlen (z. B. spezifischer Heizwärmeverbrauch) und Energieverbrauchs-Zeitreihen • Rückgabe von Informationen aus dem Vergleich von Bedarfs(Soll-) und Verbrauchs- (Ist-) Werten, gekoppelt ggf. mit einer energetischen Gebäudeklassifizierung • Aufzeigen von Sanierungsbedarf, gekoppelt ggf. mit Maßnahmevorschlägen und Wirtschaftlichkeitsberechnungen Bisherige Erfahrungen zeigen, dass nicht in jedem Fall eine Sofort-Implementierung aller Komponenten erforderlich ist. Für Kommunen, die erst am Anfang eines Energie-Controllings stehen, kann schon die Realisierung der Schritte 1., 2., und 4. Vorteile bringen, weil Energiebewusstsein geschaffen wird. Von besonderer Wichtigkeit ist auch, dass schon (Teil-) Informationen zurückgegeben werden, ohne dass alle Eingabedaten vorliegen (müssen). So lassen sich bestimmte Zeitreihen (z. B. für den Stromverbrauch) schon erstellen, auch wenn die Gebäudedaten noch nicht erfasst sind. Es müssen energetische Schwachstellen schon im Zuge des Eingabeprozesses aufgezeigt werden, nicht erst an dessen Ende. Das ControllingSystem muss vor Augen führen, dass Energie-Einsparung auch schrittweise (und mit Erfolg) realisiert werden kann. Im bisherigen Projektverlauf wurde besonderer Wert auf die Gestaltung der Eingabemasken (für Energieverbrauch und Energiebedarf) gelegt. Der Software-Nutzer soll anschaulich und übersichtlich durch das System geleitet werden, die Zahl erforderlicher Klicks so gering wie möglich ausfallen. Die Programmierung wurde in Flash vorgenommen. Einige Bespiele sind im folgenden aufgeführt. Abbildung 1 • Selektion der Bauwerkszuordnungskategorie nach EnEV 2007 Abbildung 2 • Eingabe der Flächen. 106 08_hda_querschnitt_gesamt.indb 106 18.03.2008 16:10:03 Uhr Energie-Controlling in kleinen und mittleren Kommunen? FACHBEREICH WIRTSCHAFT 7 • Herstellung größerer Forschungszusammenhänge? Das hier beschriebene Projekt hat den Charakter einer Vorstudie. Zu klären war, ob eine Software-Unterstützung einfacher Art bei den potenziell betroffenen Kommunen auf Resonanz stößt und ob eine solche Software-Lösung prinzipiell machbar erscheint. Beides muss nunmehr bejaht werden. Dass indes für eine Komplett-Realsierung größere Forschungszusammenhänge erforderlich sind, war bereits im Projektantrag betont worden. Sie sind in der Zwischenzeit hergestellt, wenn auch noch ausbaufähig. Eine in Energiefragen mehrfach preisgekrönte Gemeinde hat ihre Mitarbeit zugesagt. Ein privates Beratungs- und Entwicklungsunternehmen für die Verund Entsorgungswirtschaft sowie die öffentliche Verwaltung mit verzweigten internationalen Beziehungen ist an einem gemeinsamen (Fortsetzungs-) Forschungsantrag hochgradig interessiert. Weitere Partner, auch aus dem regionalen Umfeld, sind willkommen. Abbildung 3 • Identifikation der Energie-Referenzwerte Kurzbiografie • Prof. Dr. Hans-Jürgen Zubrod, Jg. 44, Dipl.-Wirtsch.-Ing. und Dr. rer. pol. (TU Darmstadt), wiss. Mitarbeiter an den Instituten für Makro- und Strukturplanung (TU Darmstadt) und Systemtechnik und Innovationsforschung (ISI Karlsruhe), Professor für Wirtschaftswissenschaften an der Fachhochschule Darmstadt, Fachbereich Sozial- und Kulturwissenschaften, seit 1975. Umfangreiche Mitwirkung in Studienreformarbeit (u. a. Modellversuchsleitung zur beispielhaften Verknüpfung von Studien- und Weiterbildungsangeboten in Energiewirtschaft und kommunaler Umweltplanung) und akademischer Selbstverwaltung (u. a. Rektor der Fachhochschule Darmstadt von 1979-1984). Gründungsdekan und Aufbau des Fachbereichs Wirtschaft seit 1997, Planung und Realisierung des berufsbegleitenden Weiterbildungsangebots Internationale Betriebswirtschaftslehre. Derzeitige Projekte: „Energie-Controlling in Kommunen“ und (mit Förderung des Hessischen Ministeriums für Wissenschaft und Kunst) „Gestufte energiewirtschaftliche Weiterbildung im Hochschulbereich“. Abbildung 4 • Zuweisung von elektrischen Verbrauchern. 107 08_hda_querschnitt_gesamt.indb 107 18.03.2008 16:10:05 Uhr QUERSCHNITT 22 KOMMUNALES ENERGIEMANAGEMENT UND CONTRACTING DARSTELLUNG DER ERGEBNISSE VON ZWEI BEFRAGUNGEN AUS DEN JAHREN 2006 UND 2007 1) Autoren • Martin Meyer-Renschhausen, Andreas Achilles und Klara Schroeder 1 • Einleitung Die ehrgeizigen Ziele der EU und des Bundes zur Verminderung der Treibhausgasemissionen können nur realisiert werden, wenn nicht nur der Bund, sondern auch die Länder und die Kommunen zielführende Programme durchführen. Dies gilt insbesondere für die CO2-Minderung im Gebäudebestand. Während für Neubauten anspruchsvolle Energiestandards durch die Energie-Einspar-Verordnung (EnEV) vorgegeben sind, fehlen derartige Regelungen in Gebäudebestand nahezu vollständig. Dies gilt auch für die öffentlichen Liegenschaften wie Universitäten, Schulen, Rathäuser, Sporthallen und Kindergärten. Die Durchführung von energetischen Sanierungsmaßnahmen hängt hier vom Engagement und den wirtschaftlichen Kalkülen der Entscheidungsträger ab. Vorliegende Untersuchungen zeigen, dass die Gebietskörperschaften bei der Sanierung ihrer Gebäude bislang keine Vorreiterrolle einnehmen. Im Gegensatz zur privaten Sektor müssen sie ihre Leistungen (Liegenschaften) nicht im Wettbewerb vermarkten. Untätigkeit bleibt unter diesen Bedingungen häufig folgenlos. In Ansehung der Bedeutung des kommunalen Beitrags haben sich zahlreiche Städte und Gemeinden im Rahmen von Lokalen Agenda 21 Erklärungen zu einer lokalen Nachhaltigkeitsstrategie und damit auch zu einer aktiven Klimaschutzpolitik verpflichtet. Die Sanierung der kommunalen Gebäude spielt in diesem Zusammenhang eine wichtige Rolle. Sie mindert die Emissionen, entlastet langfristig den Haushalt und besitzt eine wichtige Vorbildfunktion für die Bürger der Gemeinde. Die großen Städte in Deutschland (München, Frankfurt, Berlin, Stuttgart etc.) besitzen für diese Aufgabe spezielle Abteilungen mit qualifiziertem Personal. Ihre Programme und Erfolge sind in zahlreichen Veröffentlichungen dokumentiert. Informationen über das klimaschutzpolitische Engagement der kleineren Kommunen liegen dagegen nur in Einzelfällen vor. Systematische Erhebungen zum kommunalen Energiemanagement kleiner und mittlerer Städte und Gemeinden fehlen oder liegen lange zurück. Berücksichtigt man, dass in Deutschland knapp 70 % der Bundesbürger in Städten und Gemeinden mit weniger als 100.000 Einwohnern leben, so ist dieses Informationsdefizit problematisch, da eine gezielte politische Unterstützung und Förderung der Kommunen kaum möglich ist. Das Projekt „Kommunales Energiemanagement” am Fachbereich Wirtschaft der Hochschule Darmstadt hat sich zum Ziel gesetzt, diese Informationslücke zu schließen. Im Sommer 2006 wurde eine schriftliche Befragung sämtlicher Kommunen und Städte mit einer Einwohnerzahl zwischen 20.000 und 200.000 Einwohnern durchgeführt. Den 627 Kommunen dieser Größenordnung2) wurde ein Fragebogen per email zugesandt. Von diesen haben 218 Kommunen ihren Fragebogen ausgefüllt zurückgesandt, so dass ein Rücklauf von 34,8 % erzielt wurde. Die Angaben können als repräsentativ angesehen werden. Eines der interessanten Ergebnisse der Studie war, dass gut 40 % der Kommunen Energiesparmaßnahmen unter Einbeziehung von externen Dienstleistungsunternehmen (Anlagen- und Einspar-Contracting) durchführen. Zugleich zeigte sich, dass die Kommunen mit den Ergebnissen des Contractings in vielen Fällen nicht zufrieden waren. Im Rahmen eines Anschlussprojektes wurden daher sämtliche Kommunen, die Anlagen- oder Einspar-Contracting durchführen, hinsichtlich ihrer Vorgehensweise und ihrer Erfahrungen mit ContractingProjekten befragt. Im Rahmen von telefonischen Interviews konnten von gut 70 % der Kommunen mit Contracting auswertbare Informationen eingeholt werden. Im Folgenden werden die wesentlichen Ergebnisse der Befragungen vorgestellt. Da die Telefoninterviews erst im Dezember 2007 abgeschlossen wurden, steht die detaillierte Auswertung noch bevor. Es können daher nicht immer quantitative Ergebnisse vorgetragen werden. 2 • Bedeutung der kommunalen Energiekosten Die Ausgaben für die Versorgung der kommunalen Liegenschaften mit Wärme, Licht und Wasser (ohne Abwasser) variieren je nach Zahl und Art der vorhandenen kommunalen Liegenschaften. Im Durchschnitt gaben die Kommunen 2005 29,36 € je Einwohner (E) hierfür aus. Gegenüber 2004 sind die Kosten um 6,7 % gestiegen. Die Energieausgaben je Einwohner – und damit die Möglichkeit der Kosteneinsparung – variieren erheblich, sie liegen zwischen 9 und 61 Euro. Großstädte mit 100.000-200.000 Einwohnern haben im Durchschnitt höhere spezifische Ausgaben (34,0 € /E) als mittlere Kommunen mit 50.000-100.000 Einwohnern (29,6 € /E) und kleinere Kommunen mit unter 50.000 Ein- 108 08_hda_querschnitt_gesamt.indb 108 18.03.2008 16:10:07 Uhr Kommunales Energiemanagement und Contracting FACHBEREICH WIRTSCHAFT 0 10 20 40 30 50 Kommunale Energieausgaben 2005 nach Bundesländern in € / Einwohner Durchschnitt Andere NRW Niedersachsen Hessen Baden-Württemberg Bayern Abbildung 1 • Kommunale Energieausgaben 2005 nach Bundesländern wohnern (28,1 € /E). Ausschlaggebend hierfür ist die Tatsache, dass große Städte zentralörtliche Funktionen besitzen und insbesondere weiterführende Schulen hier stärker vertreten sind. Eine Sonderrolle spielt Hessen. Abgesehen von den kreisfreien Städten sind nicht die Kommunen, sondern die Kreise für die Schulen und deren Energiekosten zuständig. Dies schlägt sich in deutlich verminderten Energieausgaben je Einwohner nieder. Sie beliefen sich 2005 auf lediglich 15,50 € je Einwohner, gegenüber 29,36 € /E im Bundesdurchschnitt (s. Abb. 1). Nimmt man den Durchschnittswert von ca. 30 € je Einwohner, so gibt eine Stadt mit 100.000 Einwohnern demzufolge rund 3 Mio. € für Energie und Wasser aus. Bei dem derzeitigen Energiepreisniveau kann ein großer Teil davon wirtschaftlich eingespart werden. Hierbei stehen – gegliedert nach der Amortisationszeit – 3 Ansatzpunkte zur Verfügung. 1 • Energiecontrolling und Durchführung nicht- oder geringinvestiver Maßnahmen im Rahmen des Energiemanagements 2 • Modernisierung von Heizungs-, Klima- und Belüftungsanlagen sowie Beleuchtungsanlagen 3 • Baulicher Wärmeschutz Vielfältigen Erfahrungen zufolge können 5-10 % der verbrauchten Gas- und Strommengen ohne nennenswerte Investitionen allein durch regelmäßige Kontrolle des Energieverbrauchs (Energiecontrolling) und eine an den Bedarf angepasste Energiezufuhr eingespart werden, d.h. 150.000-300.000 € /Jahr 3). Unterstellt man, dass ein Energiebeauftragter inklusive Büro jährlich ca. 75.000 € kostet, so lassen sich die Kosten von 2-4 Energiebeauftragtenstellen allein durch die Kosteneinsparungen eines verbesserten Energiecontrollings decken4). Auch für eine Kleinstadt mit 25.000 Einwohnern rechnet sich demzu1) Wir danken Dr. H. Baedeker/Schwabach und Prof. Dr. H.-P.Litz /Uni Oldenburg für wertvolle Hinweise bei der Erstellung des Fragebogens und des Auswertungskonzepts. 2) Vgl. Statistisches Bundesamt, Statistisches Jahrbuch 2005, S. 38 f. 3) Dies entspricht einer CO2-Minderung um ca. 600 bis 1200 t pro Jahr. 4) Die Kosteneinsparungen sind i.d.R. wesentlich höher, da der Energiebeauftragte neben der Kontrolle des Energieverbrauchs auch die Sanierung energierelevanter Sanierungen (Heizungsanlagen, Beleuchtung, bauliche Änderungen etc.) begleitet und hierbei das strategische Ziel einer verbesserten Energieeffizienz betont. folge noch eine halbe bis eine ganze Stelle für das Energiemanagement. Aufgrund der günstigen Aufwands-Ertragsrelation sollte der Ansatz „Verbesserung des Energiemanagements“ daher bei jeder Energieeinspar-Strategie im Vordergrund stehen. Zentrales Anliegen der Untersuchung war die Frage, inwieweit diese Möglichkeiten von den Kommunen ausgeschöpft werden. 3 • Organisation und politische Unterstützung des Energiemanagements Ein wichtiges Indiz für die Bedeutung, die das Energiemanagement in einer Kommune einnimmt, ist seine organisatorische Stellung. Eine Betonung der rationellen Energieverwendung ist insbesondere dort zu vermuten, wo die Funktion des Energiemanagements organisatorisch hervorgehoben wird (und nicht von anderen Ämtern „miterledigt“ wird). Es wurde daher danach gefragt, inwieweit die Kommunen einen Energiebeauftragten bzw. eine Energieabteilung besitzen und ob ihm bzw. ihr für Energiesparmaßnahmen ein spezielles Budget zur Verfügung steht. Einen Energiebeauftragten oder eine Energieabteilung besitzen knapp 60 % der befragten Kommunen. In der Mehrheit dieser Kommunen haben die Energiebeauftragten jedoch noch vielfältige weitere Aufgaben, so dass für die Verbesserung der Energieeffizienz nur wenig Zeit zur Verfügung steht. In 76,5 % der Kommunen stehen dem Energiebeauftragten weniger als 50 % der Arbeitszeit hierfür zur Verfügung, in 22 % der Kommunen sogar weniger als 10 % (s. Tab. 1). Arbeitszeit für das Energiemanagement Häufigkeit in Prozent Kum. Prozente unter 10 % 29 22,0 22,0 10-30 % 56 42,4 64,4 30-50 % 16 12,1 76,5 über 50 % 15 11,4 87,9 100 % 6 4,5 92,4 100,0 nicht bekannt 10 7,6 Gesamt 132 100,0 Tabelle 1 • Arbeitszeit für Energieoptimierung 109 08_hda_querschnitt_gesamt.indb 109 18.03.2008 16:10:08 Uhr QUERSCHNITT 22 Liegenschaftsamt 4% Hochbauamt 18 % Gebäudemanagement 48 % Umweltamt 7 % Sonstiges, mehrere Ämter 23 % Abbildung 2 • Zuständigkeit für das Energiecontrolling bzw. Energiemanagement Vergleicht man die Ergebnisse mit der oben angestellten Überlegung, dass sich auch für Kleinstädte eine halbe bis ganze Energiebeauftragtenstelle lohnt, so kann man schlussfolgern, dass die Kommunen offenbar die Möglichkeiten unterschätzen, mit Hilfe von Verbrauchskontrollen und Verbrauchsoptimierung die Kosten und die Emissionen nachhaltig zu reduzieren. Organisatorisch ist das Energiemanagement /Energiecontrolling in den meisten Fällen dem Gebäudemanagement (49,5 %) bzw. dem Hochbauamt (18 %) zugeordnet. Nur in wenigen Fällen ist es dem Liegenschaftsamt bzw. dem Umweltamt zugeordnet. Da Hochbauamt und Gebäudemanagement in der Regel für den Bauunterhalt und die Betriebsführung der Anlagen zuständig sind, finden Bauunterhalt und Energiemanagement einer Organisationseinheit statt. Dies hat Vorteile in Bezug auf die Kommunikation, kann aber dazu führen, dass das Controlling angesichts drängender Aufgaben im Bauunterhalt und im Anlagenbetrieb vernachlässigt wird. Ein Ansatzpunkt, die Schlagkraft des Energiemanagements zu steigern, besteht darin, den Energiebeauftragten mit einem eigenen Budget auszustatten, um hieraus (kleinere) Energiesparmaßnahmen zu finanzieren. In 37 % der Kommunen mit Energiebeauftragten oder Energieabteilung stehen eigene Haushaltsmittel für Effizienzinvestitionen zur Verfügung. Welche Bedeutung der organisatorischen Stellung (Energiebeauftragten oder Energieabteilung) und der Zuweisung eigener Haushaltsmittel für Effizienzinvestitionen zukommt, schlägt sich bei der Umsetzung wirtschaftlicher Energiesparmaßnahmen nieder. Auf die Frage, welche Reaktion zu erwarten sei, wenn eine nachweislich wirtschaftliche Energiesparmaßnahme vorgeschlagen würde, gaben nur 16 % aller Kommunen ohne Energiebeauftragten oder Energieabteilung an, dass die Maßnahme sofort umgesetzt würde. Von den Kommunen mit Energiebeauftragten waren es mit 17 % kaum mehr. Von den Kommunen mit Energieabteilungen – sprich mehreren Energiemanagern – antworteten jedoch 35 %, dass die Maßnahme sofort umgesetzt würde. Von den Kommunen, in denen der Energiebeauftragte oder die Energieabteilung über ein eigenes Budget verfügt, wurde in 34 % der Fälle eine sofortige Umsetzung signalisiert. Die Ergebnisse zeigen, dass die Schaffung einer speziellen Funktion „Energiemanagement“ eine notwendige, aber keine hinreichende Voraussetzung für eine Verbesserung der Energieeffizienz darstellt. Die Einführung einer Energiebeauftragtenstelle, deren Inhaber überwiegend mit anderen Aufgaben (Bauunterhalt etc.) beschäftigt ist, ist praktisch wertlos. Erst bei entsprechender Ausstattung mit personellen, zeitlichen und finanziellen Ressourcen (Energieabteilung und /oder eigenes Budget) ist eine nennenswerte Effektivitätssteigerung zu erwarten. Von Bedeutung für den Erfolg des kommunalen Energiemanagements ist die Unterstützung durch die Politiker. Räumt das Stadtparlament den Zielen Energieeffizienz und Emissionsminderung eine hohe Priorität ein, so kann sich der Energiemanager darauf berufen und eine strittige Maßnahme leichter durchsetzen. Als Indikator für die Bedeutung der Energieeffizienz im kommunalpolitischen Zielsystem kann die Unterzeichnung einer lokalen Agenda 21 Erklärung betrachtet werden. Die Hälfte der befragten Kommunen (50 %) hat eine lokale Agenda 21 Erklärung unterschrieben; in 27 % der Fälle war dies nicht der Fall oder es war nicht bekannt (23 %). Ein signifikanter Zusammenhang zwischen der Unterzeichnung einer lokalen Agenda 21 Erklärung und einer Stärkung des Energiemanagements kann nicht festgestellt werden. Kommunen mit Agenda 21 weisen weder überdurchschnittlich häufig Energiebeauftragtestellen auf, noch sind die Energiebeauftragten überdurchschnittlich häufig mit eigenen Investitionsmitteln ausgestattet, noch treten sie durch eine zügige Umsetzung wirtschaftlicher Effizienzmaßnahmen hervor. Angesichts dieser Ergebnisse ist zu vermuten, dass die Unterzeichnung einer Agenda 21 Erklärung häufig nur ein Akt „symbolischer Politik“ ist, ohne nennenswerte Auswirkungen auf das klimapolitische Engagement der Kommunen. 4 • Energiecontrolling Die regelmäßige Erfassung und Auswertung von Energieverbrauchsdaten (Energiecontrolling) ist das Herzstück jedes Energiemanagements. Sein Erfolg ist davon abhängig, dass dafür ausreichende personelle und materielle Ressourcen bereitgestellt werden. Kennzeichen eines erfolgreichen Energiecontrollings ist, dass die Daten regelmäßig und zuverlässig erhoben, um Sondereinflüsse (Klima, Nutzungsänderungen etc.) bereinigt und 110 08_hda_querschnitt_gesamt.indb 110 18.03.2008 16:10:09 Uhr Kommunales Energiemanagement und Contracting FACHBEREICH WIRTSCHAFT zeitnah ausgewertet werden. Idealer Weise werden die Verbrauchswerte kontinuierlich maschinell erfasst und mit Hilfe eines speziellen Programms automatisch ausgewertet. Nur wenn Mehrverbräuche umgehend signalisiert werden, können Fehler (falsche Einstellungen. Leckagen etc.) kurzfristig abgestellt werden. Wie sieht die Praxis in den Kommunen aus? In 91 % der Kommunen findet eine regelmäßige Aufzeichnung der Verbräuche statt: In 70 % aller Fälle erfolgt dies monatlich. In der Mehrheit der Kommunen werden die Verbrauchsdaten allerdings manuell erhoben, d.h. durch den Hausmeister abgelesen und in Listen eingetragen. In 39 % der Kommunen gibt es die Möglichkeit zur elektronischen Fernauslese der Verbrauchsdaten, in der Regel (35 % der Kommunen) ist diese auf „einige Gebäude“ beschränkt. Die Möglichkeit der Kommunen, die erhobenen Daten zeitnah auszuwerten, hängt in erste Linie von den EDV-Programmen ab, mit denen die Daten erfasst und verarbeitet werden. 75 % der befragten Städte und Gemeinden machten Angaben zu den EDV-Programmen, mit denen sie die Verbrauchsdaten auswerten. In 50 % davon erfolgt die Auswertung mit Hilfe spezieller Energiedaten-Software, die gezielte Auswertungen und die Erstellung von Energieberichten erlauben. Hierbei wurden die Programme EKOMM, Akropolis und Easy Watt am häufigsten genannt. Die andere Hälfte der Kommunen nutzt Standardsoftware wie Excel oder Access. Fehlentwicklungen werden hier nicht automatisch angezeigt, sondern sind erst nach Bereinigungen (Witterung, Abrechnungszeiträume) erkennbar. Zwei Drittel aller Kommunen (66,8 %) führen eine derartige Witterungsbereinigung durch. Ein wichtiges Hilfsmittel des Energiemanagements und des Energiecontrollings ist der Energiebericht. Er hat die Funktion, Einsparerfolge zu dokumentieren und auf Fehlentwicklungen aufmerksam zu machen. Dies geschieht, indem der (witterungsbereinigte) Energieverbrauch des aktuellen Jahres mit dem der Vorjahre verglichen wird. In 75 % aller Kommu- 5) Berücksichtigt man, dass die Kommunen zwischen 20.000 und 200.000 Einwohnern im Durchschnitt 103 Gebäude besitzen, so sind dies für alle 627 Kommunen rd. 64.580 Heizungsanlagen. Wenn im Durchschnitt 13,6 % der kommunalen Heizungsanlagen älter als 20 Jahre sind, so sind dies bundesweit 8.800 Heizungen allein in dieser Gemeindekategorie. nen wird ein Energiebericht erstellt. In 33 % der Fälle wird der Energiebericht auch der Öffentlichkeit zugänglich gemacht. 5 • Anlagenmodernisierung und Einschätzung des Einsparpotenzials Einen wichtigen Schwerpunkt im Rahmen der kommunalen Bemühungen um Minderung des Energieverbrauchs und der Energiekosten spielen die Modernisierung der Heizungs- und Beleuchtungsanlagen sowie der bauliche Wärmeschutz. Auf die Frage, mit welchen Maßnahmen in den vergangenen Jahren die besten Einsparerfolge erzielt wurden, verwiesen 40 % der Kommunen auf die Erneuerung der Heizungsanlagen. In 24 % der Fälle wurde die Wärmedämmung genannt, gefolgt von der verbesserten Heizungsregelung im Zusammenhang mit Verbrauchserfassung und Energiecontrolling (18 %). 16 % der Kommunen nannten die Optimierung der Beleuchtung als wichtigste Maßnahme. Ein Indiz für das Qualitätsniveau der Heizungsanlagen ist die Verwendung von moderner Brennwerttechnologie. Diese wird in 23 % aller kommunalen Gebäude eingesetzt. Allerdings werden nicht alle Einsparpotenziale im Bereich der Heizungsmodernisierung zügig ausgeschöpft: In 13,6 % der Gebäude befinden sich noch Heizungsanlagen, die älter als 20 Jahre sind5). Hemmnisse im Bereich der Umsetzung von wirtschaftlichen Einsparmaßnahmen offenbaren sich auch, wenn man die Reaktionen der Kommunen auf vorgeschlagene wirtschaftliche Einsparmaßnahmen betrachtet. Auf die Frage nach den voraussichtlichen Folgen des Vorschlags einer Energiesparmaßnahme, „die sich nachweislich innerhalb weniger Jahre amortisiert“, ist nur in 19,5 % der Kommunen eine sofortige Umsetzung zu erwarten. In 35 % der Fälle wird sie abgelehnt oder verschoben; in 44 % der Fälle kann der Vorschlag „unterschiedliche Folgen haben“, wobei kostengünstige Maßnahmen eher realisiert werden als Maßnahmen mit hohem Investitionsaufwand. Angesichts dieser Umsetzungshemmnisse ist es nicht verwunderlich, wenn von 43 % der befragten Kommunen das Einsparpotential der kommunalen Gebäude als „hoch“ bis „sehr hoch“ eingestuft wird; von 49 % als „mittel“ und von 8 % als „niedrig“. 111 08_hda_querschnitt_gesamt.indb 111 18.03.2008 16:10:10 Uhr QUERSCHNITT 22 0 5 10 15 20 25 30 35 Zufriedenheit mit den Ergebnissen des Anlagen-Contractings (in %) ja zufrieden nein teilweise noch nicht beurteilbar 31,5 % 11,2 % 32,6 % 24,7 % Abbildung 3 • Zufriedenheit mit den Ergebnissen des Anlagen-Contractings 6 • Contracting Die große Zahl alter Heizungen sowie die Zögerlichkeiten bei der Umsetzung wirtschaftlicher Einsparmaßnahmen signalisieren, dass die Ausschöpfung von Einsparpotenzialen in vielen Kommunen an der Schwierigkeit scheitert, die Maßnahmen aus dem Investitionshaushalt zu finanzieren. Einen Weg zur Überwindung derartiger Finanzierungshemmnisse bieten das Anlagen-Contracting sowie das Einspar-Contracting. Beim Anlagen-Contracting werden z.B. neue Heizungsanlagen vom Contractor vorfinanziert und die Kosten über den Wärmepreis in Rechnung gestellt. Von dieser Form des Contractings machen 36 % der Städte und Gemeinden Gebrauch. Überdurchschnittlich häufig wird das Anlagen-Contracting von Großstädten mit über 100.000 Einwohnern genutzt (56 %). Häufigkeit Häufigkeit in Prozent Gemeinde kann Maßnahmen kostengünstiger durchführen 105 48,2 Kommunalpolitik unterstützt kein Contracting 13 6,0 rechtliches Neuland 28 12,8 Kontrollverlust über Liegenschaften 28 12,8 fehlende Informationen 12 5,5 andere Gründe 55 25,2 in Prozent ja 78 36,1 nein 133 61,6 nicht bekannt 5 2,3 Gesamt 216 Tabelle 2 • Nutzung des Anlagen-Contractings Die Zufriedenheit mit dem Contracting ist je nach ContractingVariante unterschiedlich. Mit den Ergebnissen des AnlagenContractings sind 31,5 % der Kommunen eindeutig zufrieden (s. Abb.3). Dagegen sind 44 % der Befragten nicht oder nur teilweise zufrieden. Beim Einspar-Contracting sieht dieses Bild freundlicher aus. Hier sind 51 % mit den Ergebnissen zufrieden, während knapp 30 % nicht oder nur teilweise zufrieden sind (s. Abb.4). 100,00 Das Einspar-Contracting, bei dem der Contractor in energiesparende Maßnahmen investiert und seine Investitionskos- Tabelle 4 • Gründe für den Verzicht auf Einspar-Contracting ten ausschließlich über eingesparten Energiekosten zurückerhält, wird nur von 20 % der Kommunen genutzt. Auch hier Die Tatsache, dass einerseits die Zufriedenheit der Kommachen die Großstädte mit über 100.000 Einwohnern über- munen mit dem Einspar-Contracting vergleichsweise hoch durchschnittlich häufig Gebrauch davon (32 %). ist, andererseits aber diese Contracting-Variante nur relativ selten zum Einsatz kommt, deutet darauf hin, dass dem Einspar-Contracting besondere Hemmnisse entgegenstehen. Die Häufigkeit in Prozent Kommunen, die auf das Einspar-Contracting verzichten, wurden deshalb danach befragt, welches die wichtigsten Gründe ja 44 20,9 hierfür waren. Als hauptsächlicher Grund wurde die Auffasnein 163 77,3 sung geäußert, dass die Gemeinde die Maßnahmen selbst kosnicht bekannt 4 1,9 tengünstiger durchführen könne (48 %). Des Weiteren ist von Bedeutung, dass mit dem Einspar-Contracting „rechtliches Gesamt 211 100,00 Neuland“ (13 %) beschritten werde und ein „Kontrollverlust über die Liegenschaften“ (13 %) erfolge. Tabelle 3 • Nutzung des Einspar-Contractings 112 08_hda_querschnitt_gesamt.indb 112 18.03.2008 16:10:10 Uhr Kommunales Energiemanagement und Contracting FACHBEREICH WIRTSCHAFT 0 10 20 30 40 50 60 Zufriedenheit mit den Ergebnissen des Einspar-Contractings (in %) ja zufrieden nein teilweise noch nicht beurteilbar 51,1 % 10,6% 19,1% 19,1% Abbildung 4 • Zufriedenheit mit den Ergebnissen des Einspar-Contractings Die in vielen Kommunen herrschende Auffassung, dass die Kommune die Maßnahme kostengünstiger durchführen könne, signalisiert, dass das Einspar-Contracting in erster Linie als ein Finanzierungsinstrument begriffen wird. In den Hintergrund tritt dabei, dass die Maßnahme – wie die Befragungsergebnisse zeigen – ohne Contracting überhaupt nicht durchgeführt wird und dass sich die Leistungen des Contractors nicht nur auf die Bereitstellung und Finanzierung der Anlage beziehen, sondern dieser auch einen Anreiz besitzt, die Anlage während der Contracting-Laufzeit so effizient wie möglich zu betreiben. Er übernimmt damit einen Teil der Energiemanagement-Aufgabe und entlastet die Kommune. Kommunen, die das Einspar-Contracting nutzen, sind unter dem Gesichtspunkt der Energieeffizienz sowie des Energiemanagements als „moderner“ einzustufen. Sie weisen weniger alte Heizungen auf (10,6 % der Fälle gegenüber 14,2 % bei Kommunen ohne Einspar-Contracting); zugleich werden die Energiedaten häufiger per elektronischer Fernauslesung erhoben (in 50 % der Fälle gegenüber 35,6 % bei Kommunen ohne Einspar-Contracting) und mit einer speziellen EnergiedatenSoftware ausgewertet (in 70,5 % der Fälle gegenüber 48,5 % bei Kommunen ohne Einspar-Contracting). Hierbei bleibt zunächst offen, ob die bessere Performance die Voraussetzung oder das Ergebnis des Einspar-Contracting ist. Eine Verbesserung der Energieeffizienz als Folge des Contractings ist nur dann zu erwarten, wenn das Contracting nicht nur vereinzelt in einem oder zwei Gebäuden der Kommune, sondern in mehreren angewendet werde. Diese Frage war Gegenstand der zweiten Erhebung, die im Herbst 2007 durchgeführt wurde. 7 • Erfahrungen mit dem Contracting – Ergebnisse der Befragung 2007 Im Herbst 2007 wurden die Kommunen, die Contracting nutzen (Anlagen- und /oder Einspar-Contracting) eingehender nach ihren Motiven und Erfahrungen mit dem Contracting befragt. Im Zentrum des Interesses steht dabei die Frage, wie viele Gebäude in den einzelnen Kommunen in das Contracting einbezogen werden und worin die Gründe für die häufig skeptische Beurteilung des Contracting – insbesondere des Anlagen-Contracting – liegen. Die telefonische Befragung ist wie die Befragung 2006 auf Kommunen mit 20.000 bis 200.000 Ein- wohnern beschränkt. 21 Kommunen mit Einspar-Contracting und rund 50 Kommunen mit Anlagen-Contracting nahmen an der Befragung teil. Das Erkenntnisinteresse der Befragung war auf die folgenden Punkte konzentriert: • Zahl der einbezogenen Liegenschaften • Art der einbezogenen Liegenschaften (Schulen, Kindergärten etc.) • Art des Contractors • Laufzeit des Vertrages • Beweggründe für das Contracting • Maßnahmen des Contractors • Investitionssumme des Contractors • Zufriedenheit der Verwaltung mit dem Contracting • Zufriedenheit der Nutzer mit dem Contracting Im Folgenden werden die wichtigsten Ergebnisse vorgestellt. Hierbei werden die Kommunen mit Einspar-Contracting und mit Anlagen-Contracting separat betrachtet. 7.1 Erfahrungen mit dem Einspar-Contracting Im Falle des Einspar-Contractings variiert die Zahl der einbezogenen Liegenschaften erheblich. In 50 % der Fälle beschränkt sich das Einspar-Contracting auf eine oder zwei Liegenschaften. In einem Drittel der Kommunen waren mehr als 10 Liegenschaften einbezogen. Hier wurden in der Regel Pools von mehreren Gebäuden vergeben. Hinsichtlich der Art der in das Contracting einbezogenen Liegenschaften standen Schulen im Vordergrund, gefolgt von Sporthallen, Verwaltungsgebäuden und Schwimmbädern. Contractoren sind Ingenieurbüros, Anlagenhersteller oder Energieversorger. Die Laufzeit der Verträge variiert zwischen 6 und 15 Jahren; in der Hälfte der Fälle beträgt sie 10 Jahre. Als Motiv für die Einführung des Einspar-Contractings wurde in den meisten Fällen die Überbrückung von Finanzierungsengpässen genannt. In einem Drittel der Kommunen mit Einspar-Contracting wurden die Projekte ausgeschrieben oder zumindest teilweise ausgeschrieben; dies gilt speziell für Kommunen, in denen in das Einspar-Contracting mehrere Liegenschaften umfasst (Pool). In der Mehrzahl der Kommunen erfolgte die Vergabe des Projektes dagegen direkt. Die Ausschreibung ist folglich eher die Ausnahme als die Regel. Hilf113 08_hda_querschnitt_gesamt.indb 113 18.03.2008 16:10:11 Uhr QUERSCHNITT 22 reich bei der Ausschreibung bzw. bei der direkten Aushandlung der Verträge waren Leitfäden, die von verschiedenen Ministerien und Behörden zur Verfügung gestellt werden. Am häufigsten genannt und am hilfreichsten war der Leitfaden des hessischen Umweltministeriums. Das Spektrum der Maßnahmen, die von den Contractoren durchgeführt wurden, ist groß. In jeweils mehr als der Hälfte der Fälle wurden die Verbesserung der Heizungsregelung und die Erneuerung der Heizung genannt. Weitere Schwerpunkte waren die Beleuchtung sowie im Falle von Schwimmbädern der Austausch der Umwälzpumpen. In etwa 60 % der Fälle sieht der Vertrag eine Einspar-Garantie vor. In 75 % der Fälle liegt die garantierte Einsparung zwischen 18 und 30 %; in einigen Fällen liegt sie höher. Im Falle von Schwimmbädern wurden durch den Einbau von neuen Pumpen Strom-Einsparungen von bis zu 70 % erreicht. Die von den Contractoren investierten Beträge variieren zwischen 3000 € und 2,8 Mio. €. Die höchsten Beträge entfallen naturgemäß auf Kommunen, die Pools vergeben haben. Aber auch dort, wo sich das Einspar-Contracting auf nur ein oder zwei Gebäude beschränkt, werden vom Contractor zum Teil über eine Million Euro investiert. Hinsichtlich der Zufriedenheit mit den Ergebnissen des EinsparContractings ergibt sich ein differenziertes Bild, abhängig davon ob nach der Zufriedenheit der Nutzer oder der Verwaltung gefragt wird. Im Falle des Einspar-Contractings begrenzen die Contractoren die Bereitstellung von Nutzenergie (Wärme, Licht, etc.) auf das vertraglich festgelegte Mindestniveau (z.B. Raumtemperatur von 21 °C), da sie nur so die ambitionierten Einspargarantien erfüllen können. Dies hat in verschiedenen Fällen zu Beschwerden der Nutzer geführt, insbesondere zu Kritik an zu niedrig empfundenen Raumtemperaturen. Seitens der befragten Verwaltungen werden diese Probleme als Umstellungsschwierigkeiten bezeichnet, da die Räume zuvor vielfach überheizt waren. Werden dagegen Maßnahmen im Bereich der Beleuchtung oder der Schwimmbäder (Umwälzpumpen) durchgeführt, liegen keine Nutzerbeschwerden vor. Die Verwaltungen sind dagegen mit dem Ergebnis nahezu ausnahmslos zufrieden. Nur in einem Fall waren die Erfahrungen so negativ, dass man kein Einspar-Conctracting mehr machen würde. In drei Fällen war man teilweise zufrieden. Auf die Frage, was man im nach hinein anders machen würde, wurde vor allem die Vertragsgestaltung angesprochen: Die Ausschreibungen und die technischen Vertragsdetails sollten konkreter formuliert werden, um den Nutzen für die Kommune zu erhöhen. Darüber hinaus sollten robuste Prozeduren festgelegt werden, welche die Zurechnung von Einsparungen im Falle von Nutzungsänderungen regeln. 7.2 Erfahrungen mit dem Anlagen-Contracting Die Fälle von Anlagen- bzw. Wärmeliefer-Contracting sind wesentlich zahlreicher als die des Einspar-Contracting. Bei der Befragung 2007 machten mehr als 50 Kommunen Angaben zu ihren Erfahrungen mit dem Anlagen-Contracting. Da die Auswertung noch nicht abgeschlossen ist, werden im Folgenden nur einige zentrale Ergebnisse in qualitativer Form dargestellt. Beweggrund für Anlagen-Contracting ist in den meisten Fällen die erforderliche Sanierung einer Heizungsanlage. Das Contracting dient dabei lediglich als Finanzierungsmodell, um die finanziellen Engpässe der Gemeinde zu überbrücken. Contractoren sind in sehr vielen Fällen die örtlichen Energieversorger (Stadtwerke), an denen die Kommunen z.T. auch selbst beteiligt sind. Der Vertrag wird zumeist direkt ausgehandelt. Weniger als die Hälfte der Projekte wurde ausgeschrieben. Hinsichtlich der Beurteilung der Contracting-Ergebnisse ergibt sich wie beim Einspar-Contracting ein differenziertes Bild. Da im Falle des Anlagen- bzw. Wärmeliefer-Contractings der Contractor keinen Anreiz besitzt, die Energiezufuhr auf das notwendige Mindestmaß zu reduzieren, sind Nutzer-Beschwerden selten. Anders sieht die Bewertung durch die Verwaltung aus. Während der laufende Betrieb in der Regel gut funktioniert und als problemlos beurteilt wird, wird das Anlagen-Contracting unter Kostenaspekten kritisch betrachtet. Viele Kommunen gehen davon aus, dass sie die Projekte selbst günstiger durchführen könnten, sofern die finanziellen Mittel zur Verfügung stünden. Als Grund für die relativ hohen Kosten dieser Contracting-Variante wurde von einigen Kommunen darauf verwiesen, dass die Raumtemperaturen höher seien als von der Kommune erwünscht und auch die Wärmezufuhr zum Teil in Zeiten erfolge, in denen die Gebäude nicht genutzt würden (z.B. in Schulen während der Ferien). Eine Verbesserung der Wirtschaftlichkeit lässt sich aus Sicht der Verwaltungen 114 08_hda_querschnitt_gesamt.indb 114 18.03.2008 16:10:11 Uhr Kommunales Energiemanagement und Contracting FACHBEREICH WIRTSCHAFT dadurch erreichen, dass die Projekte nicht direkt vergeben, sondern ausgeschrieben werden. Kurzbiografien • Dr. Martin Meyer-Renschhausen hat Soziologie und Volkswirtschaftslehre in Marburg und Oldenburg studiert. Er hat im 8. Schlussbemerkung Die Kommunen haben in den vergangenen Jahren erhebliche Fach VWL promoviert und sich habilitiert und ist seit 1990 ProAnstrengungen unternommen den Energieverbrauch und die fessor für Energiewirtschaft am Fachbereich Wirtschaft der Energiekosten zu mindern, häufig im Rahmen anstehender Sa- Hochschule Darmstadt. nierungen (Heizungsmodernisierung, Wärmedämmung). Wie die Daten zu den Aufgaben der Energiebeauftragten und zu Dipl. Energiewirt Andreas Achilles hat von 2002–2007 Enerden technischen Hilfsmitteln des Energiecontrollings zeigen, giewirtschaft an der Hochschule Darmstadt studiert und ist werden die Möglichkeiten des Energiemanagements und des seit Ende 2007 freier Mitarbeiter bei der hessenEnergie in Energiecontrollings noch immer unterschätzt. Unterschätzt Wiesbaden. werden zudem die Möglichkeiten, die Modernisierung der Anlagen und die Effizienz des Energiemanagements durch Con- Dipl. Inform. Klara Schroeder war 1988–2004 Mitarbeiterin tracting zu forcieren. Einspar-Contracting wird am ehesten am Fraunhofer Institut für Graphische Datenverarbeitung in dort durchgeführt, wo das Energiemanagement ein gewisses Darmstadt und arbeitet seitdem an verschiedenen energieNiveau aufweist. Hier kennen die Energiebeauftragten ihre wirtschaftlichen Projekten an der Hochschule Darmstadt. Handlungsmöglichkeiten und Grenzen und trauen sich zugleich die Ausgestaltung der Verträge mit dem Contractor zu. Dort wo das Energiemanagement wenig entwickelt ist, wird auf Contracting entweder gänzlich verzichtet oder es wird auf das vertraglich weniger aufwendige Anlagen-Contracting zurückgegriffen. Werden die Projekte dann ohne Verhandlungen an den örtlichen Energieversorger vergeben, so ist dies nicht selten mit Enttäuschungen verbunden. Contracting an sich ist demnach keine Garantie für eine effizientere Energieverwendung in den kommunalen Liegenschaften. Ein erfolgreiches Contracting setzt ein qualifiziertes kommunales Energiemanagement voraus. 115 08_hda_querschnitt_gesamt.indb 115 18.03.2008 16:10:12 Uhr QUERSCHNITT 22 PROJEKTBERICHTE Seiten 118 – 121 BOLOGNA FÜR DIE REGION EIN PROJEKT AM ÜBERGANG SCHULE – HOCHSCHULE Gregor Bechtold, Pia Sue Helferich Seiten 122 – 124 DIE WASSERVERSORGUNG DER SELEUKIDISCHEN FESTUNG AUF DEM KARASIS / TÜRKEI Prof. Dr.-Ing Mathias Döring • Fachbereich Bauingenieurwesen Seiten 125 – 127 ENTWICKLUNG EINES NEUEN FISCHAUFSTIEGS FÜR WASSERKRAFTWERKE Prof. Dr.-Ing Mathias Döring • Fachbereich Bauingenieurwesen Seiten 128 – 129 NACHHALTIGE WASSERWIRTSCHAFT IN ARIDEN UND SEMIARIDEN GEBIETEN DURCH NUTZUNG TRADITIONELLER VERFAHREN UND BAUWEISEN Prof. Dr.-Ing Mathias Döring • Fachbereich Bauingenieurwesen Seiten 130 – 131 TECHNIK, TEAMS, TALENTE – FÖRDERUNG DER NATURWISSENSCHAFTLICH-TECHNISCHEN BILDUNG Prof. Dr. Volker Wiskamp • Fachbereich Chemie und Biotechnologie Seiten 132 – 133 UNTERSUCHUNGEN UND ISOLIERUNG VON SEKUNDÄREN PFLANZENSTOFFEN AUS BYPRODUCTS DER LEBENSMITTELINDUSTRIE – ZWEI DIPLOMARBEITEN DES FACHBEREICHS CUB IN WIEN Prof. Dr. Wolfgang Fichtner, Eva Nowak und Helen Rickhoff A.o.Univ.Prof. Dr. techn. Senad Novalin und Dipl.-Umw. Dipl.-Ing.(FH) Ulf Schubert (Universität für Bodenkultur Wien) • Fachbereich Chemie und Biotechnologie Seiten 134 – 135 ARBEITSSCHUTZ BEIM BETRIEBLICHEN EINSATZ VON NANO-MATERIALIEN Prof. Dr. Bernd Steffensen, Dipl. Wirt.-Ing. Christian Häcker • Fachbereich Gesellschaftswissenschaften und Soziale Arbeit Seiten 136 – 139 SÜDAMERIKA – NEUE MÄRKTE FÜR DEN IT-MITTELSTAND Prof. Dr. Thomas Wilmer, Prof. Dr. Edith Rost-Schaude, Dr. Ruth Tobias, Florian Ludwig • Fachbereich Gesellschaftswissenschaften und Soziale Arbeit 116 08_hda_querschnitt_gesamt.indb 116 18.03.2008 16:10:12 Uhr PROJEKTBERICHTE Seiten 140 – 143 DARMSTÄDTER INFORMATIONSRECHTSTAGE 2005–2008 Diana Chiampi Ohly, Rainer Erd, Thomas Wilmer • Fachbereich Gesellschaftswissenschaften und Soziale Arbeit Seiten 144 –147 SMART LABELS IM ELEKTRONIKSCHROTT – BEITRAG ZU HERSTELLERVERANTWORTUNG UND PRODUKTINNOVATION Georg Cichorowski und Martin Führ • Fachbereich Gesellschaftswissenschaften und Soziale Arbeit Seiten 148 – 151 UNTERSUCHUNG VON VOLKSWIRTSCHAFTLICHEN FOLGEWIRKUNGEN NACH DURCHFÜHRUNG EINER BRACHFLÄCHENREVITALISIERUNG IM STADTBEREICH Dr.-Ing. Georg Cichorowski, Prof. Dr. Martin Führ • Fachbereich Gesellschaftswissenschaften und Soziale Arbeit Seiten 152 – 153 ATLANTIS UNIVERSITY: GEMEINSAM LEHRINHALTE ENTWICKELN Oliver Schneider, Udo Bleimann, Ingo Stengel und Felix Wagner • Fachbereich Informatik Seiten 154 – 156 ENTWICKLUNG MODERNSTER ABGASNACHBEHANDLUNGSSYSTEME AN EINEM AUFGELADENEN 1,6-LITER-OTTOMOTOR Prof. Dr.-Ing. Dietmar Ueberschär, Dipl.-Ing. Dieter Schulmeyer, Dipl.-Ing. Mehmet Poyraz • Fachbereich Maschinenbau und Kunststofftechnik Seiten 158 – 161 WAS ZAHLEN SIE WIRKLICH? – DIE BEWERTUNG VON KREDIT-SONDERANGEBOTEN ANWENDUNGSORIENTIERTE LEHRE AM BEISPIEL DER FINANZMATHEMATIK Andreas Pfeifer • Fachbereich Mathematik und Naturwissenschaften Seiten 162 – 165 MODI – ENTWICKLUNG VON METHODEN UND ANWENDUNGSKOMPONENTEN ZUR DYNAMISCHEN MODELLINTEGRATION IM ELEKTRONISCHEN GESCHÄFTSVERKEHR Prof. Dr. Michael Rebstock, Janina Fengel (M.Sc.), Heiko Paulheim (B.Sc.) • Fachbereich Wirtschaft 117 08_hda_querschnitt_gesamt.indb 117 18.03.2008 16:10:12 Uhr QUERSCHNITT 22 BOLOGNA FÜR DIE REGION EIN PROJEKT AM ÜBERGANG SCHULE – HOCHSCHULE Autoren • Gregor Bechtold, Pia Sue Helferich Die folgenden Ausführungen beschreiben das Projekt „Bologna für die Region“, das von Dezember 2006 bis November 2007 an der Hochschule Darmstadt stattfand. Zentrales Element des Projekts war eine Tagung am 03.09.2007. Dialog ermöglichen – Das Projekt verfolgte das Ziel, Problemfelder aufzudecken und im Dialog mit Studienberaterinnen und Studienberater sowie Lehrkräften Verbesserungen für den Übergang Schule – Hochschule zu entwickeln. Das Projekt im Überblick Im Zuge der europäischen Studienreform, auch Bologna-Prozess genannt, werden Diplom- und Magisterabschlüsse auf Bachelor- und Masterabschlüsse umgestellt. Gemeinsam mit inzwischen 46 anderen europäischen Staaten hat sich Deutschland verpflichtet, bis 2010 die Ziele der Bologna-Erklärung von 1999 umzusetzen und den Aufbau eines europäischen Hochschulraums mit zu gestalten. Die Umstellung auf das Bachelor-Master-System führt zu weitreichenden Änderungen, wie z.B. dem Leistungspunktesystem (ECTS). Diese Veränderungen betreffen vor allem Studierende und Studieninteressierte, aber auch so genannte Multiplikatoren, wie Lehrkräfte und Personen in Beratungsfunktionen. Für diese Beteiligten entsteht ein erhöhter Informations-, Kommunikations- und Beratungsbedarf. So stellen sich unter anderem folgende Fragen: Wie sind die neuen Abschlüsse mit den Diplom- und Magisterstudiengängen zu vergleichen? Sind die neuen Abschlüsse international anerkannt und untereinander vergleichbar? Welche quantitativen und qualitativen Änderungen ergeben sich durch die neuen Studiengänge? Großer Informationsbedarf zu diesen und verwandten Fragen zum Bologna-Prozess konnte in Gesprächen mit Kolleginnen und Kollegen beispielsweise auf Berufsbildungsmessen sowohl bei Lehrkräften als auch bei Schülerinnen und Schülern festgestellt werden. Zudem bestätigte eine Umfrage, die in der ersten Phase des Projekts Bologna für die Region an hessischen Schulen durchgeführt wurde, diese Annahme. Die Ziele des Projekts, initiiert durch den Bologna-Beauftragten der Hochschule Darmstadt, können wie folgt zusammengefasst werden: Informieren – Das Projekt hatte zum Ziel, vor allem Lehrkräfte über den Bologna-Prozess und die damit einhergehenden Veränderungen für Studieninteressierte zu informieren. Netzwerke bilden – Ziel war es auch, nachhaltige Netzwerke zwischen Schulen und Hochschulen für den Übergang Schule – Hochschule zu schaffen. Im Zentrum des Projekts stand eine Tagung für Lehrkräfte und Studienberaterinnen sowie Studienberater am 03. September 2007. Die Tagung stellte die zweite große Phase des Projekts dar. Kooperationspartner bei der Tagungsorganisation war das Staatliche Schulamt Darmstadt-Dieburg. Unterstützt wurde das Projekt weiterhin durch die Hochschulrektorenkonferenz (HRK) und umgesetzt mit den Mitteln der Darmstädter Stiftung für Technologietransfer. Zu den weiteren Elementen des Projektes gehörte ein Internetangebot, das über den gesamten Projektzeitraum allen Interessierten unter www.bologna.h-da.de/projekt Informationen zur Verfügung stellte. Die Abbildung 1 verdeutlicht nochmals die einzelnen Projektschritte. April September Dezember 2007 Projektstart Vorstudie Website Tagung Dokumentation Abbildung 1 • Projektphasen im Überblick Nun schauen wir uns die Ergebnisse der ersten Projektphase, der Umfrage unter Lehrkräfte sowie Schülerinnen und Schülern näher an. 118 08_hda_querschnitt_gesamt.indb 118 18.03.2008 16:10:13 Uhr PROJEKTBERICHTE Phase 1 • Befragung – Großer Informationsbedarf bei Schülerinnen und Schülern sowie Lehrkräften festgestellt Durch den Bologna-Prozess entsteht bei Personen in Beratungsfunktionen, Lehrkräften sowie Studieninteressierten, wie in der Einleitung beschrieben, ein erhöhter Informations-, Kommunikations- und Beratungsbedarf. Die Umfrage wurde unter Lehrkräften, die Klassen der Oberstufe betreuen, sowie Schülerinnen und Schüler der zwölften Jahrgangsstufe durchgeführt und gibt einen Überblick über den Informationsbedarf an südhessischen Schulen. Ziel der Befragung war es, die ersten Ansätze zur Tagungskonzeption im Rahmen des Projekts zu verifizieren. Die Mehrheit der befragten Schülerinnern und Schüler (44 von 63) gab an, noch nie etwas vom Bologna-Prozess gehört zu haben. Im Gegensatz dazu gaben alle befragten Lehrkräfte (15 Nennungen) an, dass ihnen der Bologna-Prozess ein Begriff sei. Ebenfalls alle der befragten Lehrkräfte finden es wichtig, über den Bologna-Prozess informiert zu sein, da sie der Ansicht sind, dass die Schule auf das Studium vorbereiten sollte. Allerdings fühlt sich die Mehrheit der befragten Lehrkräfte nur unzureichend über den Bologna-Prozess informiert. Fast alle befragten Schülerinnen und Schüler wünschen sich jedoch, von ihren Lehrkräften über den Bologna-Prozess informiert zu werden. Lehrkräfte spielen für die befragten Schülerinnen und Schüler bei Fragen rund um das Studium eine wichtige Rolle: Mehr als die Hälfte der befragten Schülerinnen und Schüler (34 Nennungen) gaben an, sich bei ihrer Lehrkraft über Fragen zum Studium zu informieren. Damit nehmen Lehrkräfte Platz eins vor Studienberatern mit 32 Nennungen und den Freunden der befragten Schüler mit 30 Nennungen ein. Erst danach nennen die Schüler (23 Nennungen) ihre Eltern als Informationsquelle. Die Bundesagentur für Arbeit bildet mit 18 Nennungen das Schlusslicht. Die Hälfte der befragten Lehrkräfte in der Region Südhessen fühlt sich neben dem Bologna-Prozess auch über die Kompetenzorientierung im Unterricht weniger gut informiert. Bei der Frage nach negativen Aspekten, die Lehrkräfte sowie Schülerinnen und Schüler mit dem Bologna-Prozess verbin- den, machen sich beide Gruppen gleichermaßen Sorgen um die Akzeptanz der neuen Studienabschlüsse. Hier wird überwiegend die mangelnde Anerkennung von Seiten der Wirtschaft genannt. Am häufigsten geben Schülerinnen und Schüler neben der mangelnden Anerkennung, „Unübersichtlichkeit“ und „Unsicherheit“ als negative Punkte an. Hier sind für sie vor allem die „Umwälzungen“ der Studienstrukturen und die ihrer Meinung nach „undurchschaubare Veränderungen“ verwirrend. Schülerinnen und Schüler befürchten darüber hinaus eine Verschlechterung bzw. Veränderung der Studienbedingungen. Hier wurden Punkte genannt wie „weniger Veranstaltungen“, „soll verschulter sein“ sowie „Studium ist weniger umfangreich als vorher“. Die Lehrkräfte nennen neben der „mangelnden Anerkennung“ als weitere negative Aspekte den „Qualitätsverlust der Ausbildung“ sowie die „Modularisierung der Referendarausbildung“. Bei der Frage nach den positiven Aspekten des Bologna-Prozesses geben Schülerinnen und Schüler sowie Lehrkräfte am häufigsten die „Internationalität“ an, die durch die neuen Studienformen entsteht. Schülerinnen und Schüler sowie Lehrkräfte nennen hier beispielsweise „verbesserte Möglichkeiten bezüglich des Arbeitsplatzes im Ausland“ oder auch die „internationale Anerkennung“ der neuen Abschlüsse. In diesem Zuge wird von Schülerinnen und Schülern auch eine „internationale Vergleichbarkeit“ der Abschlüsse immer wieder erwähnt. Schülerinnen und Schüler sehen weiterhin die „Verkürzung der Studienzeit“ ebenso wie die „Strukturierung“ der neuen Studienprogramme positiv. Diese Befragungsergebnisse flossen dann in die zweite große Phase des Projekts ein, eine Tagung für Lehrkräfte, Studienberaterinnen und Studienberater sowie Personen die in Beratungsfunktionen an der Schnittstelle tätig sind. Phase 2 • Tagung – Das Kernstück des Projekts Den ersten Teil der Tagung bildete ein Informationsangebot rund um den Bologna-Prozess auf der Basis der Umfrageergebnisse. Ein Ziel der Tagung war es, den Teilnehmenden ein breites Spektrum an Informationen, wie etwa die Vorstellung der neuen Studienstruktur, zu bieten. Darüber hinaus ergänz119 08_hda_querschnitt_gesamt.indb 119 18.03.2008 16:10:14 Uhr QUERSCHNITT 22 ten Erfahrungsberichte aus der Praxis, z.B. welche Veränderungen haben sich für Studierende in einzelnen Studiengängen ergeben, das Angebot. Im zweiten Teil der Tagung ermöglichten verschiedene Workshops Raum zum Austausch und Dialog. Ziel war es hier, gemeinsam mit Lehrkräften praktikable und nachhaltige Lösungen für Problemstellungen am Übergang Schule – Hochschule zu entwickeln und mögliche Kooperationen zu erarbeiten. Die Tagung war als Lehrerfortbildung akkreditiert und für bis zu 120 Teilnehmerinnen und Teilnehmern aus hessischen Gymnasien, Fachoberschulen und Beruflichen Schulen ausgelegt. Abbildung 2 zeigt das Tagungsprogramm. 08:00 Uhr Registrierung und Anmeldung 09:00 Uhr Grußwort Kultusministerin Karin Wolff 09:15 Uhr Begrüßung Prof. Dr. Bernhard May, Vizepräsident (h_da), Dr. Lothar Scholz, Schulamtsdirektor (Staatliches Schulamt Darmstadt-Dieburg) 09:30 Uhr Der Bologna-Prozess als Herausforderung für die Bildungslandschaft Birgit Hennecke (HRK) 10:15 Uhr Veränderungen in der Lehrerausbildung nach Bologna Beate Caputa-Wießner (Uni Gießen) Dr. Wolfgang Lührmann (Uni Gießen) 10:45 Uhr Kaffeepause 11:00 Uhr Vorstellung des Bachelor-Master-Modells am Beispiel des Fachbereichs Informatik Prof. Dr. Katja Lenz (h_da) 11.45 Uhr Durchlässigkeit im Hochschulsystem – Wege zum Wunschberuf Prof. Dr. Bernhard May (h_da) 12:30 Uhr Mittagspause 13:45 Uhr Workshops zur Auswahl 16:15 Uhr Vorstellung der Ergebnisse im Plenum 17:00 Uhr Ende der Tagung Abbildung 2 • Tagungsprogramm Abbildung 3 • Präsidentin Prof. Dr. M. Overbeck-Larisch, Kultusministerin K. Wolff (v. l.) Folgende Workshops standen am Nachmittag zur Auswahl: Workshop 1 • Problemfelder und Herausforderungen am Übergang Schule – Hochschule In diesem Workshop wurden verschiedene Herausforderungen am Übergang Schule – Hochschule im Rahmen des Bologna-Prozesses angesprochen, wie z.B. die Gestaltung der Durchlässigkeit im Schul- und Studiensystem. Praktikable und nachhaltige Lösungsansätze wurden erarbeitet und skizziert. Workshop 2 • Neue Anforderungen an Schülerinnen und Schüler Wie werden aus Schülerinnen und Schülern Studierende? Dieser Workshop hatte das Ziel, die neuen Anforderungen an Schülerinnen und Schüler zu identifizieren und Möglichkeiten der Umsetzung in Schule und Hochschule zu diskutieren. Workshop 3 • Neue Anforderungen an Lehrkräfte – kompetenzorientiertes Unterrichten Auch Lehrkräfte sehen sich durch die Umstellung der Studienstruktur und -prozesse mit neuen Anforderungen konfrontiert. In diesem Workshop wurden didaktische Ansätze erörtert, die sich aus der Diskussion um Bildungsstandards und kompetenzorientiertes Lehren und Lernen für den Unterricht ergeben. Workshop 4 • Projekte und Kooperationen am Übergang Schule – Hochschule Um den Übergang von Schule zu Hochschule zu verbessern, beschäftigte sich dieser Workshop mit konkreten Projekten und Kooperationen am Übergang und diskutiert deren Umsetzung. Workshop 5 • Shell-Studie: Wissenschaftliche Befunde zur Sozialisierung von Jugendlichen und die Bedeutung für den Übergang Dieser Workshop beschäftigte sich mit folgenden Fragestellungen: Was bewegt Jugendliche heute? Wie läuft der Sozialisierungsprozess ab? Gibt es Veränderungen im Vergleich zu früheren Jahren, die die Übergangsthematik betreffen? 120 08_hda_querschnitt_gesamt.indb 120 18.03.2008 16:10:14 Uhr PROJEKTBERICHTE Phase 3 • Fazit – Ergebnisse & Weiteres Vorgehen Nach der Tagung, diente die dritte Phase der Sichtung der Ergebnisse und der Erarbeitung einer Dokumentation. Folgende Schlüsse und Ergebnisse lassen sich zielen: Deutlich wurde vor allem auf der Tagung, dass es ein Ziel sein muss, eine Intensivierung und institutionelle Verankerung der Zusammenarbeit zwischen Schule und Hochschule zu erreichen. Die Ergebnisse