Querschnitt Nr. 22 - Hochschule Darmstadt

Transcrição

Querschnitt Nr. 22 - Hochschule Darmstadt
AUSGABE 22 | APRIL 2008
QUERSCHNITT • AUSGABE 22
QUERSCHNITT
BEREIT FÜR DEN
GROSSEN AUFTRITT?
SOFTWARE AG
DIE SOFTWARE AG
BE S CH Ä F T IGT
¬ Praktikanten/Werksstudierende
¬ Absolventen
BETR EU T
¬ Bachelor-Arbeiten
¬ Master-Arbeiten
BI ETET FÜR STUDIERENDE
¬ Umfangreiches Hochschulprogramm
¬ Produktschulungen
BI ETET FÜR ABSOLVENTEN
¬ Trainee-Programme
¬ Internationale Einsatzmöglichkeiten
¬ Attraktives Einstiegsgehalt
FREU T S IC H AUF DE IN E N B ES UCH
www.softwarea g . com /J obs
www.softwarea g . com /uni ver sit y
Software AG ist der weltweit größte unabhängige Anbieter von Business-Infrastruktursoftware.
Unsere 4.000 Kunden erzielen messbare Erfolge
durch die Modernisierung vorhandener IT-Systeme
und die Erstellung innovativer Lösungen für neue
Geschäftsanforderungen.
Unser Produktportfolio umfasst marktführende
Lösungen für Datenmanagement, serviceorientierte
Architekturen und die effiziente Automatisierung
von Geschäftsprozessen. Wir verbinden leistungsfähige IT-Technologie mit Branchen-Know-how
und bewährten Best Practices und helfen damit
unseren Kunden, ihre Unternehmensziele schneller
zu erreichen.
Die Software AG hat ihr Headquartes in Darmstadt
und ist an der Frankfurter Wertpapierbörse notiert.
SOFTWARE AG.
GET THERE FASTER
Contact us at www.softwareag.com
Contact us at www.softwareag.com
Beiträge aus Forschung und Entwicklung
Mit 61.000 Mitarbeitern/-innen, Niederlassungen in 41 Ländern und einem Vertriebsnetz, das mehr als 100 Länder
abdeckt, bietet AREVA ihren Kunden zuverlässige technologische Lösungen für CO2-freie Energieerzeugung sowie die
Energieübertragung und -verteilung.
Für uns sind das genau 3,53 Erbsen.
Zur AREVA-Gruppe gehört die AREVA NP, ein Unternehmen von AREVA und Siemens mit mehr als 15.500 Mitarbeitern/
-innen. Von unseren Standorten in Frankreich, Deutschland und den USA aus arbeiten wir in allen Teilen der Welt.
Technologieführerschaft hat bei uns Tradition
Forschung und Entwicklung sind seit jeher Garanten für unseren Unternehmenserfolg. Nur deshalb können wir heute die
modernsten und sichersten Reaktordesigns anbieten und schlüsselfertig für unsere Kunden bauen. Dies wird auch in
Zukunft so bleiben. Es gilt, Gutes noch besser zu machen und den weltweit anerkannten Sicherheitsstandard unserer
Reaktoren weiter zu erhöhen. Von uns gebaute Kernkraftwerke erzeugen in elf Ländern kostengünstig und CO2-frei
Strom. Immer mehr Betreiber setzen auf das Know-how unserer Teams und auf unsere hochspezialisierten Tools, um
ihre Anlagen noch wettbewerbsfähiger zu machen.
Wir nehmen die Dinge sehr genau.
Menschen – Ideen – Karrieren
Wer sich für uns entscheidet, findet interessante Aufgabenfelder. Bei einem Global Player zu arbeiten verlangt neben
Fachwissen und Kreativität auch Offenheit und Verständnis für andere Kulturen. Die von uns entwickelten und angemeldeten Patente belegen Jahr für Jahr unsere herausragende Kompetenz. Mit neuartigen Reaktoren wollen wir der
Kernenergie in den nächsten Jahrzehnten neue Einsatzgebiete in der Energiewirtschaft erschließen. Unsere Mitarbeiterinnen und Mitarbeiter aus den unterschiedlichen technischen und wissenschaftlichen Disziplinen arbeiten bereits
heute an diesen Herausforderungen von morgen. Auch für Sie eröffnen sich einmalige Karrierechancen.
Auch Ihre Zukunft bei uns.
Möchten Sie an diesen herausfordernden Aufgaben mitarbeiten und Ihre Fähigkeiten einbringen?
An unseren Standorten in Deutschland, z.B. Erlangen, Offenbach, Karlstein, Lingen und Duisburg, geben wir Ihnen
jederzeit die Gelegenheit zum Einstieg.
Wir suchen mehrere Ingenieure, Techniker und technische Assistenten (m/w), gerne auch mit gleichwertigem ausländischen Abschluss, mit Schwerpunkt in einer der folgenden Fachrichtungen:
–
–
–
–
Maschinenbau/Verfahrens-/Kerntechnik
Automatisierungs-/Regelungs-/Leittechnik
Elektrotechnik
Informatik
–
–
–
–
Schenck Process ist einer der Technologie- und Marktführer im Bereich der angewandten Messtechnik. An 25 Standorten weltweit entwickeln 1.800 Mitarbeiter
innovative Lösungen für verfahrenstechnische Prozesse der Wäge-, Dosierund Schwingtechnologie. In vielen Industriebereichen wie Zement, Kunststoff,
Pharma, Kraftwerke und Transport Automation. Und das seit über 125 Jahren.
Bauwesen
Naturwissenschaften (Physik, Chemie)
Werkstoff-/Materialwissenschaften
Wirtschaftsingenieurwesen/Betriebswirtschaft
– Jobs als Werkstudent/in
– Praktikumsplätze
– Studien-, Diplom- und Doktorarbeiten
Wir freuen uns darauf, Sie kennen zu lernen.
Bitte bewerben Sie sich vorzugsweise online unter www.areva-np.com/karriere oder nehmen Sie Kontakt mit uns auf:
AREVA NP GmbH, Abt. H-G, Frau Bernhild Pflanzer, Kaiserleistr. 29, 63067 Offenbach
Für mehr Informationen: www.areva.com
080319_hda_querschnitt_cover_rz_2 2
Schenck Process GmbH
Pallaswiesenstr. 100
64293 Darmstadt, Germany
T +49 61 51-15 31 22 39
[email protected]
www.schenckprocess.com
Darüber hinaus bieten wir Studierenden dieser Fachrichtungen
Sichern Sie sich Ihre Chance als Ingenieur/in mit den Schwerpunkten
Mechatronik, Maschinenbau und Verfahrenstechnik. Wir suchen Sie zur
Konstruktion, technischen Auftragsabwicklung und Projektleitung, für Service
und Inbetriebnahme, den technischen Vertrieb und für die Entwicklung
zukunftweisender Produkte.
www.schenckprocess.com
19.03.2008 14:39:26 Uhr
AUSGABE 22 | APRIL 2008
QUERSCHNITT
Beiträge aus Forschung und Entwicklung
08_hda_querschnitt_gesamt.indb 1
18.03.2008 16:06:30 Uhr
QUERSCHNITT 22
WIR STELLEN UNS DEM KLIMAWANDEL.
DIE HOCHSCHULE DARMSTADT BEZIEHT
POSITION ZU VERÄNDERUNGEN IN UMWELT
UND HOCHSCHULLANDSCHAFT.
2
08_hda_querschnitt_gesamt.indb 2
18.03.2008 16:06:34 Uhr
VORWORT
Forschung und Entwicklung in den angewandten Wissenschaften und Künsten besitzen an
der Hochschule Darmstadt hohe Bedeutung und Reputation. Die Basis hierfür liegt in der
Kompetenz und dem Engagement der Professorinnen und Professoren, Mitarbeiterinnen
und Mitarbeiter und der Studierenden. Die Zusammenarbeit mit Industriepartnern trägt
neue Aufgabenstellungen und Ideen an die Hochschule und fördert so die Aktualität der
Aus- und Weiterbildungsinhalte.
Das Zentrum für Forschung und Entwicklung (zfe), ein Zusammenschluss von Forscherinnen und Forschern der Hochschule Darmstadt, leistet hierzu einen wichtigen Beitrag.
Das zfe fördert zahlreiche FuE-Projekte, informiert über Förderprogramme, unterstützt
bei der Beantragung von Fördermitteln und bei der Abwicklung der FuE-Projekte und richtet jährlich den Tag der Forschung aus. Dieser stand 2007 aus aktuellem Anlass unter dem
Leitthema „Klimawandel“ (siehe auch Coverfoto). Die Hochschule Darmstadt forscht aktiv auf diesem Gebiet, u.a. dokumentiert im Beitrag „μ -Grids – Der Weg zu intelligenten
Stromnetzen und umweltfreundlicher Stromversorgung“.
Aber der Klimawandel findet nicht nur global und meteorologisch statt. Auch die Hochschullandschaft unterliegt derzeit einem starken Wandel:
• Die Hochschulen erhalten zunehmend Autonomie.
• Der „Bologna-Zug“ ist in voller Fahrt: Bachelor- und Masterstudiengänge werden flächendeckend eingeführt.
• Forschung und Entwicklung werden mehr und mehr über Förderprogramme und Industriekooperationen finanziert werden.
Die neuen strategischen Partnerschaften mit der Software AG und der HEAG Südhessischen Energie AG (HSE) weisen neue Wege zu Public-Private-Partnership-Kooperationen. Die Beteiligung an den großen Forschungsförderprogrammen der EU, der Bundesrepublik Deutschland und des Landes Hessen zeigen den Willen und das Zutrauen, in „der
ersten Liga“ mitwirken zu können.
Der jährlich erscheinende Querschnitt präsentiert die ganze Bandbreite der Forschungsaktivitäten an der Hochschule Darmstadt, (alphabetisch) beginnend mit „Arbeitsschutz beim
betrieblichen Einsatz von Nano-Materialien“ über „Kommunales Energiemanagement“ bis
hin zu „Wasserversorgung der seleukidischen Festung auf dem Karasisi /Türkei“. Das vorliegende Heft zeigt anschaulich die Substanz und Qualität der h_da-Forschungsprojekte.
Es soll sowohl Forscher und Forschungsinteressierte als auch die breite Öffentlichkeit
ansprechen. Lassen Sie sich durch die Beiträge über die FuE-Aktivitäten der Hochschule
Darmstadt informieren.
Die Präsidentin
der Hochschule Darmstadt
Prof. Dr. Maria Overbeck-Larisch
Der Leiter
des Zentrums für Forschung und Entwicklung
Prof. Dr.-Ing. Lothar Petry
3
08_hda_querschnitt_gesamt.indb 3
18.03.2008 16:06:47 Uhr
QUERSCHNITT 22
INHALT
Seiten 2 – 3
VORWORT PRÄSIDENTIN
Seiten 16 – 115
PROJEKTE
Seiten 16 – 22
PRODUKTINNOVATIONSPOTENTIALE IN DER FABRIKÄHNLICHEN
VORFERTIGUNG IM BAUWESEN
Prof. Dr.-Ing. Lothar Ruf, Prof. Dr.-Ing. Andreas Lang,
Prof. Dr.-Ing. Dipl.-Wirt. Ing. Alexander Bubenik und Dipl.-Ing. (FH) Andreas Hrastnik
• Fachbereich Bauingenieurwesen
Seiten 24 – 31
BIOGAS AUS BIOABFALL – UNTERSUCHUNGEN ZUR BIOABFALL-VERGÄRUNG
AN DER HOCHSCHULE DARMSTADT UND IN EINEM KOMPOST WERK
Prof. Dr. Hans-Jürgen Koepp-Bank, Dipl.-Ing. (FH) Anja Heselich,
Dipl.-Ing. (FH) Heiko Mannsperger und Dipl.-Ing. (FH) Astrid Püstel
• Fachbereich Chemie und Biotechnologie
Seiten 32 – 39
μ-GRIDS – DER WEG ZU INTELLIGENTEN STROMNETZEN UND
UMWELTFREUNDLICHER STROMVERSORGUNG
Thorsten Fiedler und Dieter Metz
• Fachbereich Elektrotechnik und Informationstechnik
Seiten 40 – 51
GIMME THE GIMMICKS – WERBUNG IN UND FÜR KINDER- UND
JUGENDZEITSCHRIFTEN
Dipl.-Soz. Bettina von Römer und Prof. Dr. Bernd Steffensen
• Fachbereich Gesellschaftswissenschaften und Soziale Arbeit
Seiten 52 – 61
EIN ELEKTRONISCHES LERN-MANAGEMENTSYSTEM MIT INTEGRIERTER
BILDTELEFONIE- UND VIDEOKONFERENZFUNKTION
Prof. Dr. Michael Massoth, Daniel Brügger, Mahtab Dalir,
Nadine Haertel, Jürgen Müller, Thomas Treusch und Christine Weber
• Fachbereich Informatik
4
08_hda_querschnitt_gesamt.indb 4
18.03.2008 16:06:48 Uhr
7IRßSINDßBEREITßF~RßKLUGEß+yPFE
5NSEREß-ITARBEITERINNENßUNDß-ITARBEITERßSTELLENß
SICHßTiGLICHßDENß(ERAUSFORDERUNGENßDESßDYNAMI
SCHENß%NERGIEMARKTSß$AF~RßBRAUCHENßWIRßAUCHß
INß:UKUNFTßKLUGEß+yPFEßDIEßMITß%NGAGEMENTßUNDß
)DEENßDIEß%NERGIEßUNDß4RINKWASSERVERSORGUNGß
VONßMORGENßSICHERSTELLEN
7ENNß3IEß)NTERESSEßANßEINERß-ITARBEITßBEIßUNSß
HABENßSEIßESßALSß!BSOLVENTINß0RAKTIKANTINßODERß
$IPLOMANDINßWENDENß3IEßSICHßBITTEßAN
(%!'ß3~DHESSISCHEß%NERGIEß!'ß(3%ß0ERSONAL
,ANDWEHRSTRA†Eßßß$ARMSTADT
4ELßßß%-AILßPERSONAL HSEAG
7EITEREß)NFORMATIONENß~BERßUNSßSOWIEßUNSE
REßAKTUELLENß3TELLENANGEBOTEß½NDENß3IEßUNTERß
WWWHSEAG
WWWHSEAG
Die Energieversorgung der Zukunft mitgestalten
Die Versorgung mit Energie und Trinkwasser ist eine der Grundvoraussetzungen für das Leben in unserer Gesellschaft. Knapper werdende Ressourcen
und immer höhere Ansprüche an den
Klimaschutz machen die sichere und
umweltschonende Versorgung der
Menschen mit Energie und Trinkwasser
zu einer der größten Herausforderungen des 21. Jahrhunderts. Kluge Köpfe
sind gefragt, die mit ungewöhnlichen
Ideen neue Wege gehen wollen.
Die HEAG Südhessische Energie AG
(HSE) ist mit ihren rund 2.000 Mitarbeiterinnen und Mitarbeitern verantwortlich für die Lebensadern der Region. Die Versorgungsnetze der HSE
schaffen die Basis für den Wirtschaftsstandort Südhessen. Mit seinen Tochter- und Beteiligungsgesellschaften ist
der HSE-Konzern von der Erzeugung
und Beschaffung über die Verteilung
bis hin zum Vertrieb von Energie und
der Versorgung mit Trinkwasser aktiv.
Im Rhein-Main-Neckar-Raum beliefert
die Vertriebstochter ENTEGA mehr als
650.000 Kunden zuverlässig mit Strom,
08_hda_querschnitt_gesamt.indb 5
Erdgas, Trinkwasser und Wärme.
ENTEGA hat es geschafft, Ökostrom
aus der Nische zu holen. Über 300.000
Kunden haben sich für das nach den
hohen Standards des ok Power Labels
zertifizierte Ökostromprodukt entschieden. Damit gehört die HSE-Tochter zu den größten Ökostromanbietern
Deutschlands. Daneben betreibt die
HSE großtechnische Anlagen wie das
Darmstädter Müllheizkraftwerk, mehrere Heizkraftwerke und zwei Klärwerke in Darmstadt. Dabei erzielt der
Konzern einen Jahresumsatz von über
einer Milliarde Euro.
Für mehr Unabhängigkeit im Strombezug möchte die HSE den Anteil des
eigen erzeugten Stromes auf bis zu
70 Prozent ausbauen. Dies geschieht
durch Beteiligungen an konventionellen
Kraftwerken und den massiven Ausbau
regenerativer Energien. Alleine dafür
wird die HSE in den nächsten Jahren
rund 400 Millionen Euro in nationale
und internationale Projekte aus den
Bereichen Sonne, Wind und Geothermie investieren.
Das Unternehmen erschließt aber auch
die Potentiale in der Region. Hierzu investiert die HSE unter anderem in Biogasanlagen. In Darmstadt-Wixhausen
geht 2008 die erste Biogasanlage Hessens in Betrieb, die das erzeugte Gas
direkt ins Erdgasnetz einspeist. Weiterhin beteiligt sich die HSE an Biomasse-Kraftwerken, mit denen Rest- und
Schwachholz für eine umweltverträgliche Energieerzeugung genutzt werden
kann.
Um seine ehrgeizigen Ziele zu verwirklichen, braucht die HSE qualifizierte und
motivierte Mitarbeiterinnen und Mitarbeiter. Von zentraler Bedeutung sind
dabei gute Nachwuchskräfte. Bereits
während des Studiums erhalten angehende Akademiker die Chance, die eigene Energie in Erfolg umzusetzen - sei
es im Rahmen eines Praktikums oder
einer Diplomarbeit. Nach einem zügig
und erfolgreich abgeschlossenen Studium bietet das Unternehmen interessante Perspektiven in einem dynamischen und zukunftsfähigen Markt.
18.03.2008 16:06:48 Uhr
QUERSCHNITT 22
INHALT
Seiten 62 – 70
EINFLUSS DER ANLASSINTENSITÄT AUF DIE MECHANISCHEN EIGENSCHAFTEN
EINES BORLEGIERTEN MARTENSITISCHEN KAROSSERIESTAHLS
Prof. Dr.-Ing. Mario Säglitz, Prof. Dr. George Krauss und Cand.-Ing. Matthias Niegel
• Fachbereich Maschinenbau und Kunststofftechnik
Seiten 72 – 81
ÜBER DIE STOKES-EINSTEIN-BEZIEHUNG FÜR FLUIDSYSTEME MIT
DURCHDRINGBAREN TEILCHEN
Helge-Otmar May und Peter Mausbach (Fachhochschule Köln)
• Fachbereich Maschinenbau und Kunststofftechnik
Seiten 82 – 89
WEITERGEHENDE ABWASSERBEHANDLUNG –
DAMIT ES IM KANAL NOCH SAUBERER WIRD!
Prof. Dr.-Ing. habil. J. Unger, Dipl.-Chem. S. Michling (FB B)
• Fachbereich Maschinenbau und Kunststofftechnik
Seiten 90 – 97
HÖRBÜCHER UND PODCASTING FÜR BILDUNGSZWECKE
ERSCHEINUNGSFORMEN – GESTALTUNGSWEISEN – DISTRIBUTION
Sabine Breitsameter
• Fachbereich Media
Seiten 98 – 107
ENERGIE-CONTROLLING IN KLEINEN UND MITTLEREN KOMMUNEN?
Hans-Jürgen Zubrod
• Fachbereich Wirtschaft
Seiten 108 – 115
KOMMUNALES ENERGIEMANAGEMENT UND CONTRACTING – DARSTELLUNG
DER ERGEBNISSE VON 2 BEFRAGUNGEN IN DEN JAHREN 2006 UND 2007
Martin Meyer-Renschhausen, Andreas Achilles und Klara Schroeder
• Fachbereich Wirtschaft
6
08_hda_querschnitt_gesamt.indb 6
18.03.2008 16:06:48 Uhr
STAZ Prakt-Diplomanden186mm.qxd:Anzeigenkonzept.qxd
24.10.2007
11:33 Uhr
Seite 1
Entwickeln Sie mit: Die Bertrandt AG ist Partner der Automobil- und Luftfahrtindustrie.
Von der Idee bis zur Serienreife entwickeln über 4.200 Mitarbeiter bei Bertrandt Lösungen
für Karosserie, Innenraum, Fahrwerk, Elektrik und Elektronik, Motor und Aggregate.
Für unseren Standort in Rüsselsheim suchen wir engagierte
Praktikanten, Diplomanden,
Jobber sowie Absolventen m/w
Wir bieten Einsatzmöglichkeiten in den Bereichen:
Konstruktion und Entwicklung Karosserie, Aufbau, Interieur/Cockpit/Sitze, Exterieur,
Elektrik, Fahrwerk/Klima/Kühlung und Powertrain
Funktionsentwicklung und technische Berechnung
Elektronikentwicklung
Entwicklungsbegleitende Dienstleistungen
Grundlage für den Einsatz in einem dieser interessanten Bereiche ist Ihr Studium des
Maschinenbaus, der Fahrzeugtechnik, der Elektrotechnik, der Mechatronik, der Informatik, des Wirtschaftsingenieurwesens oder einer vergleichbaren Studienrichtung.
Setzen Sie bei uns um, was Sie bisher in Ihrem Studium gelernt haben, fertigen Sie Ihre
Abschlussarbeit an oder ergreifen die Chance zu einem erfolgreichen Berufsstart. Bei uns
nehmen Sie konkrete Projekte selbstständig in Angriff, profitieren von der Erfahrung gestandener Profis und nutzen am eigenen Arbeitsplatz modernstes Equipment.
Wir freuen uns auf Ihre Bewerbung.
Mehr über Bertrandt und unsere offenen Positionen finden Sie unter www.bertrandt.com
Haben Sie noch Fragen? Dann sprechen Sie mit
Cosima Karl +49 6134 2566 - 160, [email protected]
Bertrandt Ingenieurbüro GmbH, Im Weiherfeld 1, 65462 Ginsheim-Gustavsburg
08_hda_querschnitt_gesamt.indb 7
18.03.2008 16:06:49 Uhr
QUERSCHNITT 22
INHALT
Seiten 118 – 165
PROJEKTBERICHTE
Seiten 118 – 121
BOLOGNA FÜR DIE REGION
EIN PROJEKT AM ÜBERGANG SCHULE – HOCHSCHULE
Gregor Bechtold, Pia Sue Helferich
Seiten 122 – 124
DIE WASSERVERSORGUNG DER SELEUKIDISCHEN FESTUNG
AUF DEM KARASIS / TÜRKEI
Prof. Dr.-Ing Mathias Döring
• Fachbereich Bauingenieurwesen
Seiten 125 – 127
ENTWICKLUNG EINES NEUEN FISCHAUFSTIEGS FÜR WASSERKRAFTWERKE
Prof. Dr.-Ing Mathias Döring
• Fachbereich Bauingenieurwesen
Seiten 128 – 129
NACHHALTIGE WASSERWIRTSCHAFT IN ARIDEN UND SEMIARIDEN GEBIETEN
DURCH NUTZUNG TRADITIONELLER VERFAHREN UND BAUWEISEN
Prof. Dr.-Ing Mathias Döring
• Fachbereich Bauingenieurwesen
Seiten 130 – 131
TECHNIK, TEAMS, TALENTE – FÖRDERUNG DER
NATURWISSENSCHAFTLICH-TECHNISCHEN BILDUNG
Prof. Dr. Volker Wiskamp
• Fachbereich Chemie und Biotechnologie
Seiten 132 – 133
UNTERSUCHUNGEN UND ISOLIERUNG VON SEKUNDÄREN PFLANZENSTOFFEN
AUS BYPRODUCTS DER LEBENSMITTELINDUSTRIE – ZWEI DIPLOMARBEITEN
DES FACHBEREICHS CUB IN WIEN
Prof. Dr. Wolfgang Fichtner, Eva Nowak und Helen Rickhoff
A.o.Univ.Prof. Dr. techn. Senad Novalin und Dipl.-Umw. Dipl.-Ing.(FH) Ulf Schubert
(Universität für Bodenkultur Wien)
• Fachbereich Chemie und Biotechnologie
8
08_hda_querschnitt_gesamt.indb 8
18.03.2008 16:06:49 Uhr
Es gibt Geräusche,
die am Image kratzen.
The
Group
THE ART OF ROTATION
RA4041
BECKER SPÄTH
Selbst winzige Ursachen entfalten oft große Wirkung. Eine kleine
Unwucht entpuppt sich auf diese Weise schnell als Geräuschbelästigung im Alltagsbetrieb und zum Makel eines ansonsten tadellosen
Produkts. Ob groß oder klein – bei einer Vielzahl von Komponenten
lassen sich durch Auswuchten störende Vibrationen von Anfang
an vermeiden. Dank der Auswuchtlösungen von Schenck RoTec.
www.schenck-rotec.de
08_hda_querschnitt_gesamt.indb 13
18.03.2008 16:06:50 Uhr
QUERSCHNITT 22
INHALT
Seiten 134 – 135
ARBEITSSCHUTZ BEIM BETRIEBLICHEN EINSATZ VON NANO-MATERIALIEN
Prof. Dr. Bernd Steffensen, Dipl. Wirt.-Ing. Christian Häcker
• Fachbereich Gesellschaftswissenschaften und Soziale Arbeit
Seiten 136 – 139
SÜDAMERIKA – NEUE MÄRKTE FÜR DEN IT-MITTELSTAND
Prof. Dr. Thomas Wilmer, Prof. Dr. Edith Rost-Schaude, Dr. Ruth Tobias, Florian Ludwig
• Fachbereich Gesellschaftswissenschaften und Soziale Arbeit
Seiten 140 – 143
DARMSTÄDTER INFORMATIONSRECHTSTAGE 2005–2008
Diana Chiampi Ohly, Rainer Erd, Thomas Wilmer
• Fachbereich Gesellschaftswissenschaften und Soziale Arbeit
Seiten 144 –147
SMART LABELS IM ELEKTRONIKSCHROTT –
BEITRAG ZU HERSTELLERVERANTWORTUNG UND PRODUKTINNOVATION
Georg Cichorowski und Martin Führ
• Fachbereich Gesellschaftswissenschaften und Soziale Arbeit
Seiten 148 – 151
UNTERSUCHUNG VON VOLKSWIRTSCHAFTLICHEN FOLGEWIRKUNGEN NACH
DURCHFÜHRUNG EINER BRACHFLÄCHENREVITALISIERUNG IM STADTBEREICH
Dr.-Ing. Georg Cichorowski, Prof. Dr. Martin Führ
• Fachbereich Gesellschaftswissenschaften und Soziale Arbeit
Seiten 152 – 153
ATLANTIS UNIVERSITY: GEMEINSAM LEHRINHALTE ENTWICKELN
Oliver Schneider, Udo Bleimann, Ingo Stengel und Felix Wagner
• Fachbereich Informatik
Seiten 154 – 156
ENTWICKLUNG MODERNSTER ABGASNACHBEHANDLUNGSSYSTEME AN EINEM
AUFGELADENEN 1,6-LITER-OTTOMOTOR
Prof. Dr.-Ing. Dietmar Ueberschär, Dipl.-Ing. Dieter Schulmeyer,
Dipl.-Ing. Mehmet Poyraz
• Fachbereich Maschinenbau und Kunststofftechnik
10
08_hda_querschnitt_gesamt.indb 10
18.03.2008 16:06:49 Uhr
Das StoCretec Prinzip:
Wenn aus Substanz
Sicherheit wird
StoCretec: Betoninstandsetzung und Bodenbeschichtung
Wir konzentrieren uns auf Beton und Boden. Für die Wertund Funktionserhaltung bieten wir komplette Systemlösungen an. Dazu gehört die umfassende Beratung in
allen Phasen der Instandsetzung, des Schutzes und der
Gestaltung von Betonbauwerken. Langjährige Erfahrung
macht uns zu einem kompetenten Partner.
StoCretec GmbH
Gutenbergstraße 6
65830 Kriftel
Telefon06192 401-0
Telefax06192 401-325
www.stocretec.de
[email protected]
Anzeige Das StoCretec Prinzip 181 1
03.01.2007 12:43:54
Siemens Power Transmission and Distribution (PTD) ist eines der führenden Unternehmen auf dem Weltmarkt
für Energieübertragung und -verteilung. Als Produktlieferant, Systemintegrator, Komplettlösungs- und Serviceanbieter ermöglicht Siemens PTD Stromversorgern und der Industrie den wirtschaftlichen und zuverlässigen
Transport elektrischer Energie vom Kraftwerk bis zum Verbraucher. Für den Standort Frankfurt/Main mit
ca. 950 Mitarbeitern suchen wir Menschen mit ehrgeizigen Zukunftsplänen, die Lust haben, mit uns auf dem
Weltmarkt etwas zu bewegen.
• Werkstudenten (m/w)
• Praktikanten (m/w)
• Diplomanden (m/w)
• Absolventen (m/w)
Wir zeigen Ihnen Ihre Chancen im Kompetenzzentrum der Siemens AG für die Entwicklung und Produktion
gasisolierter Mittelspannungs-Schaltanlagen zur Verteilung elektrischer Energie am Weltmarkt.
Unsere Teams in den Bereichen Produktion, technisches Versuchsfeld und Konstruktion von MittelspannungsSchaltanlagen warten auf die engagierte Unterstützung von Werkstudenten, Praktikanten, Diplomanden und
Absolventen.
Bringen Sie den Drive mit, bei uns richtig durchzustarten? Haben Sie darüber hinaus Kenntnisse der Elektrotechnik, des Maschinenbaus, der Feinwerktechnik o. ä. ?
Dann bewerben Sie sich online über unsere Jobbörse unter www.siemens.de/career
(Arbeitsgebiet: Power, Bereich: Power Transmission and Distribution).
Für Fragen steht Ihnen Herr Niehuis unter Tel. 069 / 4008-2276 gern zur Verfügung.
Power Transmission and Distribution
www.siemens.de/ptd
08_hda_querschnitt_gesamt.indb 11
18.03.2008 16:06:49 Uhr
QUERSCHNITT 22
INHALT
Seiten 158 – 161
WAS ZAHLEN SIE WIRKLICH? – DIE BEWERTUNG VON KREDIT-SONDERANGEBOTEN
ANWENDUNGSORIENTIERTE LEHRE AM BEISPIEL DER FINANZMATHEMATIK
Andreas Pfeifer
• Fachbereich Mathematik und Naturwissenschaften
Seiten 162 – 165
MODI – ENTWICKLUNG VON METHODEN UND ANWENDUNGSKOMPONENTEN ZUR
DYNAMISCHEN MODELLINTEGRATION IM ELEKTRONISCHEN GESCHÄFTSVERKEHR
Prof. Dr. Michael Rebstock, Janina Fengel (M.Sc.), Heiko Paulheim (B.Sc.)
• Fachbereich Wirtschaft
Seiten 166 – 187
ABSCHLUSSARBEITEN
Seiten 188 – 189
DANKSAGUNG
Seite 190
IMPRESSUM
12
08_hda_querschnitt_gesamt.indb 12
18.03.2008 16:06:49 Uhr
Studium. Beruf. Karriere.
Und meine Gesundheit versichere ich bei der IKK-Direkt.
Vorteil Beitragssatz:
Die IKK-Direkt ist jung, dynamisch, zeitgemäß – und die
günstigste bundesweit wählbare
Krankenkasse.
Vorteil Leistung:
Die IKK-Direkt garantiert 100%
Leistung und 100% Sicherheit.
Plus interessante und attraktive
Zusatzangebote.
Vorteil Service:
Als Online-Direktkasse ist die
IKK-Direkt täglich 24 Stunden
und ganzjährig überall für Sie
erreichbar.
Alle Infos, Mitgliedschaftsantrag und Beitragsrechner auf www.ikk-direkt.de
Machen Sie sich fit für Ihre Zukunft!
08_hda_querschnitt_gesamt.indb 9
Anschrift
Hotline*
IKK-Direkt
01802 455 347 oder
Kaistraße 101 01802 IKK Direkt
24114 Kiel
*6 Ct./Anruf Festnetz Dt. Telekom
18.03.2008 16:06:49 Uhr
h_da
HOCHSCHULE DARMSTADT
UNIVERSITY OF APPLIED SCIENCES
WEITERBILDUNG
Weiterbildungsanzeige_querschnit1 1
08_hda_querschnitt_gesamt.indb 14
26.02.2008 14:40:19
18.03.2008 16:06:50 Uhr
Oval-Lounge im Hotel Grand Elysee, Hamburg
Entwurf: Architekturbüro Wilfried Köhnemann, Hamburg
Gestaltungsfreiheit in ihrer schönsten Form.
Hochwertiger Trockenbau
macht aus Visionen Räume – Knauf.
Noch Fragen? www.knauf.de
08_hda_querschnitt_gesamt.indb 15
4175_AZ_Diam_Architekt_A4.indd 1
Prozessfarbe CyanProzessfarbe
CyanProzessfarbe MagentaProzessfarbe
MagentaProzessfarbe GelbProzessfarbe
GelbProzessfarbe Schwarz
18.03.2008 16:07:03 Uhr
13.12.2007 9:16:11 Uhr
QUERSCHNITT 22
PRODUKTINNOVATIONSPOTENTIALE
IN DER FABRIKÄHNLICHEN
VORFERTIGUNG IM BAUWESEN
Autoren •
Prof. Dr.-Ing. Lothar Ruf, Prof. Dr.-Ing. Andreas Lang, Prof. Dr.-Ing. Dipl.-Wirt. Ing. Alexander Bubenik und
Dipl.-Ing. (FH) Andreas Hrastnik
1 • Einleitung
Die hier beschriebene Forschungsarbeit ist die konsequente Fortführung der Kooperation des
Studienschwerpunkts Bauwirtschaft am Fachbereich Bauingenieurwesen der Hochschule Darmstadt
und der BASF Aktiengesellschaft, Ludwigshafen.
16
08_hda_querschnitt_gesamt.indb 16
18.03.2008 16:07:03 Uhr
Produktinnovationspotentiale in der fabrikähnlichen Vorfertigung im Bauwesen FACHBEREICH BAUINGENIEURWESEN
17
08_hda_querschnitt_gesamt.indb 17
18.03.2008 16:07:12 Uhr
QUERSCHNITT 22
Bauteilgruppe
Aufgabenbereich
Bauteiluntergruppe
Fortlaufende
Nummerierung
Art der Kennzeichnung
##
##
$ (#)
##
Beispiel
02
Raumbildender
Ausbau
03
Vorfertigungspotential
A1
Boden- Unterbodenkonstruktion
22
Zementheizestrich
Abbildung 2 • Codierungssystem
Abbildung 1 • Präsentation Forschungsergebnisse Step 1 durch u. a. Professor
Dr.-Ing. Lothar Ruf
2 • Vorgeschichte
Bereits 2005 /06 wurde unter dem Arbeitstitel „Identifizierung
und Untersuchung von Rationalisierungspotentialen in Bauprozessen unter besonderer Berücksichtigung des Einsatzes
von Bauprodukten oder deren Systemkomponenten“ zusammen mit der BASF geforscht. Das damalige Forschungsprojekt beschäftigte sich mit Rationalisierungspotentialen im
Überschneidungsfeld der Baubetriebslehre und der Materialwissenschaft. Unter der Anleitung von Professoren und eines
wissenschaftlichen Mitarbeiters betätigten sich insgesamt
sechs Studenten im Rahmen ihrer Diplomarbeiten mit der Identifizierung von verbesserungsfähigen Bauprozessen in den
Bereichen Neubau und Renovierung hinsichtlich Zeit- und Kostenoptimierungsmöglichkeiten.
Für 6 ausgewählte Systeme
• Tragwerk
• Dach / WDVS
• Fassade /Fenster
• Raumbildender Ausbau 1 (Neubau)
• Nasszelle und
• Raumbildender Ausbau 2 (Renovierung)
wurden Bauprozesse mit hohem Lohnkostenanteil sowie mit
kritischem Ablaufverhalten identifiziert, analysiert, beschrieben und baubetrieblich bewertet. Zwei weitere Diplomarbeiten
untersuchten Rationalisierungspotentiale im Zusammenhang
mit äußeren Randbedingungen:
• Einfluss klimatischer Faktoren
• Sauberkeit als Prozessbedingung
Aus mehreren hundert analysierten und in Form von Datenblättern detailliert festgehaltenen Teilprozessen konnten
letztlich 35 signifikant optimierungsfähige Bauprozesse identifiziert werden.
In einem Abschlussworkshop im Februar 2006 wurden die erarbeiteten Forschungsergebnisse unter ca. 20 Teilnehmern der
BASF und der Hochschule Darmstadt diskutiert. Im Ergebnis
konnten gemeinsam 42 Vorschläge und Ideen erarbeitet werden, welche hinsichtlich ihrer technischen Machbarkeit und
ihres ökonomischen Potentials bewertet wurden. Die Ergebnisse des ersten Forschungsprojektes wurden auf einem Innovationsworkshop der BASF in Bad Dürkheim zur internen
Bewertung und fokussierten Bearbeitung vorgestellt.
3 • Aktuelles Forschungsprojekt
Das aktuelle Forschungsprojekt trägt den Titel „Identifizierung
und Untersuchung von Produktinnovationspotentialen in der
fabrikähnlichen Vorfertigung im Bauwesen.“ Ähnlich wie beim
Forschungsprojekt 2005 /06 sollten Bauprozesse hinsichtlich
ihres Optimierungspotentials untersucht werden. Der Schwerpunkt lag diesmal jedoch nicht im Bereich der Bauausführung
in situ, sondern in der Vorfabrikation.
Das Forschungsprojekt wurde in 2 aufeinander aufbauende Abschnitte aufgeteilt, welche von unterschiedlichen Forschungsteams, bestehend aus Professoren, einem wissenschaftlichen
Mitarbeiter und Diplomanden, bearbeitet wurden. Unterstützt
wurden die Teams durch Fachleute des Forschungspartners.
Ziel des ersten Forschungsabschnittes war die Identifizierung
von ausgewählten Bereichen des Bauwesens in denen bereits
Produktkomponenten mit einem hohen Vorfertigungsgrad
oder mit hohem Vorfertigungspotential existieren.
18
08_hda_querschnitt_gesamt.indb 18
18.03.2008 16:07:18 Uhr
Produktinnovationspotentiale in der fabrikähnlichen Vorfertigung im Bauwesen FACHBEREICH BAUINGENIEURWESEN
Boden
Unterbodenkonstruktion
Raumbildender Ausbau
Verbund-Zementestrich
Produktionsprozess
„Verbund-Zementestrich“
02.02.A1.01
1. Anwendungsbereiche
Boden
Unterbodenkonstruktion
Zementheizestrich
Vorfertigungspotential
„Zementheizestrich“
02.03.A1.22
1. Vorfertigungspotential
- Als Ausgleichsestrich, wenn der tragende Untergrund starke Unebenheiten aufweist;
Beim Produktionsprozess „Zementheizestrich“ besteht hohes Vorfertigungspotential.
- Als Gefälleestrich, zur Ableitung von Oberflächenwasser;
Denkbar wäre, die einzelnen Funktionen des Heizestrichs, also Dämmen (Dämmschicht), Heizen
- …
(Rohrleitungssystem) und Lastverteilen (Estrich) werkseitig in einem Produkt zu vereinen. Diese
Möglichkeit setzt jedoch voraus, dass der Teilprozess „Aushärten des Estrichs“ ebenfalls ausgelagert
2. Prozessbeschreibung
wird.
Bodenaufbau siehe Anlage 02.02.A1.01-A [1]
- Reinigen des Untergrundes – eine mechanische Vorbehandlung ist evtl. nötig (schleifen,
sandstrahlen);
Das Vorfertigungspotential läge also darin, Zementestrich-Elemente mit integriertem Heizsystem
vorzufertigen und die jeweilig benötigte Dämmung ebenfalls werkseitig zu applizieren.
- Auftragen einer Haftbrücke aus Zementschlämme (aus Trockenmörtel, vor Ort gemischt, Untergrund
muss sehr lange vorgenässt werden), aus Kunstharzdispersionen (nicht in gleichem Maße
H = hoch
M
Zementheizestrichelemente hätten bei zu großen Abmessungen ein hohes Eigengewicht und würden
somit einen gewissen logistischen Aufwand verursachen;
-
…
3. Werkstoffe
Abbildung 3 • Ausschnitt Datenblatt (Prozess)
M = mittel
N
-
Verbundestrich auf den noch feuchten Betonuntergrund aufgebracht wird („frisch-auf-frisch“);
- …
N = niedrig
H
Bei der Umsetzung dieser Ansätze könnten u.a. folgende Schwierigkeiten auftreten:
kraftschlüssig, wie mineralische Haftbrücken) oder aus Reaktionsharzen (z.B. Epoxidharze, diese
haften sehr gut, sind jedoch relativ teuer). Auf eine Haftbrücke kann verzichtet werden, wenn der
Technisch
Raumbildender Ausbau
N
M
H
Wirtschaftlich
Abbildung 4 • Ausschnitt Datenblatt
Hierzu wurde das Untersuchungsgebiet in Bauteilgruppen,
wie folgt, aufgeteilt:
• Rohbau und Betonbauteile (Betonfertigteile, Betonhalbfertigteile)
• Raumbildender Ausbau (Boden, Wand, Decke)
• Dach und Fassade (Dachabdichtung, Fassade)
• Technische Gebäudeausrüstung (Haustechnik im Sanierungsbereich)
• Fertighaus (Schlüsselfertig)
Die Bauteilgruppen bildeten eigenständige Untersuchungsgebiete, welche von fünf Studenten im Rahmen ihrer Diplombzw. Masterarbeiten bearbeitet wurden. Zur Förderung und
Koordination der Arbeitsprozesse sowie der Struktur der
Ausarbeitungen fanden regelmäßige, meist wöchentliche Projektbesprechungen statt. So wurden in diesen bspw. codierte
und standardisierte Produktionsprozess-Datenblätter sowie
Vorfertigungspotential-Datenblätter entwickelt, die eine systematische Erfassung von Prozess- und Vorfertigungsdaten
ermöglichten.
Die Aufgabenteile, welche jeweils bearbeitet werden sollten,
waren insbesondere die umfassende Analyse des Marktes, die
Beschreibung von etablierten Produktionsprozessen (Stand
der Technik) sowie deren Vorfertigungspotential. Abschließend
wurde jeweils der Status quo der Vorfertigung betrachtet.
Im Rahmen der Marktanalyse wurde zunächst eine Marktsegmentierung vorgenommen. Weiter wurde das Marktvolumen
bestimmt, es wurden die Hauptmarktteilnehmer identifiziert
und regionale Unterschiede benannt.
Die Beschreibung der etablierten Produktionsprozesse erfolgte mit Hilfe eines speziell dafür entwickelten Datenblattes. Die
Auswahl der Produktionsprozesse erfolgte nach der Bedeutung des Prozesses durch Orientierung am Stand der Technik.
Hierbei sollte keine Unterscheidung nach konventionellen oder
vorgefertigten Produkten vorgenommen werden.
Die Prozessdatenblätter zum Thema „Etablierte Produktionsprozesse“ hatten folgenden Inhalt:
• Anwendungsbereiche
• Prozessbeschreibung
• Werkstoffe
• Baubehelfe
• Stufe der Vorfertigung
• Logistik (Ver- und Entsorgung)
Abbildung 5 • Vorfertigungspotential-EvaluierungsMatrix
• Abhängigkeiten und Schnittstellen
• Planungs- und Informationsprozess
• Erreichen von festgelegten Qualitäten
• Normen und Richtlinien
Die Beschreibung und Bewertung des Vorfertigungspotentials
der im vorherigen Schritt identifizierten Produktionsprozesse
erfolgte ebenfalls mit Hilfe eines speziell dafür entwickelten
Datenblattes. Dabei wurden die zuvor identifizierten Produktionsprozesse hinsichtlich der folgenden Themengebiete auf
ihre Vorfertigung untersucht:
• Vorfertigungspotential allgemein
• Auswirkungen auf die Montage
• Auswirkungen auf die Logistik
• Auswirkungen auf Baubehelfe
• Auswirkungen auf Planungs- und Informationsprozesse
Den Abschluss des Datenblattes bildete eine baubetriebliche
Bewertung in Form eines Resümees sowie die graphische
Darstellung in Form einer zweidimensionalen Vorfertigungspotential-Evaluierungs-Matrix mit den Potentialklassen N, M
und H (N = niedriges Potential, M = mittleres Potential, H = hohes Potential) mit den Achsen:
• Beurteilung relevanter Punkte von Prozessbeschreibungen
hinsichtlich technischer Kriterien
• Beurteilung relevanter Punkte von Prozessbeschreibungen
hinsichtlich wirtschaftlicher Kriterien
Im Ergebnis wurden im ersten Arbeitsschritt 158 Produktionsprozesse hinsichtlich ihres Vorfertigungspotentials untersucht.
In der Bauteilgruppe „Rohbau und Betonbauteile“ konnten
keine Prozesse mit hohem Vorfertigungspotential identifiziert
werden, da dieser Bereich (hier insbesondere die Fertigteilbauweise) bereits durch einen hohen Vorfertigungsgrad gekennzeichnet ist. Mittleres bzw. niedriges Optimierungspotential wurde jedoch in den Bereichen
• Doppelwände
• Elementdecken und
• TT-Decken
gesehen.
In der Bauteilgruppe „Raumbildender Ausbau“ konnten 9 Prozesse mit hohem Vorfertigungspotential identifiziert werden.
19
08_hda_querschnitt_gesamt.indb 19
18.03.2008 16:07:21 Uhr
QUERSCHNITT 22
Sie entstammen den Bereichen
• Zementheizestrich
• Fließzementheizestrich
• Anhydritheizestrich und
• Anhydritfließheizestrich
• Ziegel-Mauerwerk im Dickbett
• KS-Mauerwerk im Dickbett
• Vorsatzschalung aus zementgebundenen Platten
• Farbanstrich (Wand)
• Gipsplatten auf Metallunterkonstruktion
• Farbanstrich (Decke)
In der Bauteilgruppe „Dach und Fassade“ wurden 8 Prozesse
mit hohem Vorfertigungspotential identifiziert. Zu nennen sind
hier:
• Zimmermanns-Konstruktionen (Kaltdach)
• Photovoltaik-Module
• Massiv-Decken (Warmdach)
• Holzdecken (Warmdach)
• Dachentwässerungsanschlüsse
• Keramikbekleidungen (nicht hinterlüftet)
• Massive Bekleidungen (hinterlüftet und nicht hinterlüftet)
In der Bauteilgruppe „Fertighaus“ konnten 5 Prozesse mit hohem Vorfertigungspotential identifiziert werden:
• Außenwand mit Putz
• Außenwand verklinkert
• Außenwand mit Holzverkleidung
• Außenwand mit Verblendmauerwerk
• Innenwand mit konventionellem Aufbau
Die Ergebnisse wurden in einem international besetzten Workshop im April 2007 in Ludwigshafen (ca. 25 Teilnehmer aus
der BASF) vorgestellt. Ziel war es, eine Einschätzung zu entwickeln, welche der als hoch rationalisierbar eingeschätzten
Produktionsprozesse hinsichtlich ihrer technischen Umsetzbarkeit und hinsichtlich ihres Marktpotentials weiter untersucht werden sollten.
Den Schwerpunkt des zweiten Arbeitsschrittes bildeten Feldstudien. Der Focus hierbei lag bei der Erhebung von Prozessdaten, der Schwachstellenanalyse und Wirtschaftlichkeitsbetrachtung sowie dem Aufzeigen von Optimierungspotentialen
in beobachteten Produktionsprozessen. Hierzu wurden die
Untersuchungsgebiete wie folgt abgegrenzt:
• Füge-Technik im Bau
• Beton- und Kunststoff-Komposit-Lösungen für den Bau
• Selbstverdichtender Beton mit niedrigem Feinstoffgehalt
(SVB) für die Fertigteilherstellung
• Einzeluntersuchung zur Ertüchtigung einer Gebäudehülle
mit Hilfe vorgefertigter Bauteile
Füge-Technik im Bau
Im Untersuchungsgebiet „Füge-Technik im Bau“ wurden zunächst sämtliche bekannten Füge-Techniken erfasst und katalogisiert. Im Rahmen der anschließenden Feldstudien wurden
konkrete Anwendungen näher untersucht. Ziel war die Identifikation und Analyse von Schwachstellen, Problemen und Verbesserungsansätzen.
Im Ergebnis ist ein großes Entwicklungspotential im Bereich
der Füge-Technik von Betonbauteilen, insbesondere in den
Bereichen Beton-Sandwichplatten und räumlich-komplexer
Fertigteile zu erkennen. Räumlich-komplexe Fertigteile werden häufig in einem Arbeitsschritt / Gussvorgang hergestellt.
Dadurch sind komplexe Schalungskörper erforderlich, die den
geometrisch komplizierten Betonteilen ihre Form geben. Weiterhin gestaltet sich meist der Transport schwierig. Die Möglichkeit, einzelne Teile des Fertigteils unabhängig voneinander
herstellen und anschließend verkleben zu können, lässt signifikante Vorteile erwarten.
Klebtechniken für tragende Verbindungen bilden Klebedübel.
Sind hohe Zugbelastungen durch Verbindungsflächen zu leiten, wie z. B. in den Ecken von Winkelstützmauern, so musste
bislang von der Klebtechnik abgesehen werden. Die maßgebliche Schwachstelle stellt hierbei jedoch nicht der Kleber dar,
sondern der Beton, welcher Zugkräfte nicht aufnehmen kann.
Daher sollen die Verbindungsfugen an Stellen gelegt werden,
an denen Druck- oder Scherspannungen auf die Fuge wirken.
Sind hohe Schubbelastungen in der Verbindungsfuge zu erwarten, wie z. B. bei Dach-Sandwich-Platten, so ist der Einsatz
einer kombinierten Füge-Technik denkbar. Hier ist der Einsatz
der Klebtechnik in Verbindung mit Klebankern vorstellbar. Die
Anker können in situ problemlos gesetzt werden und müssen nicht aufwändig im Zuge der Schalarbeiten eingearbeitet
werden. Ihr Einsatz würde bei der Montage zu einer gewissen
Grundfestigkeit der Verbindung führen, ohne dass der Kleber
ausgehärtet sein muss. Durch die Anker könnte zudem das
Kriechen des Klebers gemindert werden.
20
08_hda_querschnitt_gesamt.indb 20
18.03.2008 16:07:23 Uhr
Produktinnovationspotentiale in der fabrikähnlichen Vorfertigung im Bauwesen FACHBEREICH BAUINGENIEURWESEN
Abbildung 7 • Ausbreitversuch mit SVB
Abbildung 6 • Herstellung von Beton-Sandwich-Platten
Abbildung 8 • Sanierungsobjekt
Dieser Lösungsansatz wäre auch bei der Herstellung von
Wand-Sandwich-Platten denkbar. Große Lasten könnten über
geklebte Anker übertragen werden. Die verschiedenen Schichten der Platten könnten dadurch in unabhängigen Herstellungsprozessen gefertigt werden. Würde eine tragfähige Wärmedämmung verwendet werden, könnte diese die Eigenlast
der nicht-tragenden Betonschicht durch die Klebflächen aufnehmen und zusätzlich die Verwölbung der Betonschicht verhindern.
wurden u. a. Anwender befragt, welche SVB einsetzen.
Den Schwerpunkt dieser Arbeit bildeten auch hier Feldstudien
bei ausgewählten Unternehmen. Bei diesen wurden zahlreiche
Versuche zur Herstellung von SVB mit geringem Feinstoffgehalt mit jeweils unterschiedlichen Betonrezepturen durchgeführt, ausgewertet und analysiert. Für die Herstellung des
SVB wurden jeweils besondere Ausgangsstoffe und Zusatzmittel verwendet.
Als Ergebnis der Untersuchung ist festzustellen gewesen,
dass der Einsatz von SVB mit geringem Feinstoffgehalt derzeit
nur bei klar beherrschbaren Randbedingungen möglich ist.
Beton- und Kunststoff-Komposit-Lösungen für den Bau
Beton-Kunststoff-Systeme finden in der Bauindustrie ein
breites Anwendungsgebiet. Hierbei werden die positiven Eigenschaften, welche beide Materialien auszeichnen, vorteilhaft genutzt. Ausgehend vom momentanen Stand der Anwendung von Beton-Kunststoff-Systemen im Bauwesen mit ihren
Eigenschaften und Anwendungsmöglichkeiten wurden in Zusammenarbeit mit externen Anwendern neue Möglichkeiten
für den Einsatz von Beton-Kunststoff-Systemen betrachtet.
Dabei wurden entsprechende Produktionsprozesse ausgewählt. Es galt materialbedingte, verarbeitungsbedingte, transportspezifische sowie systemeinsatzbedingte Anforderungen
an die (neuen) Verbindungen zu definieren.
Im Ergebnis wurden die folgenden Anwendungsmöglichkeiten
näher beschrieben:
• Kleben von Beton und Kunststoff im Bereich schienengebundener Verkehrswege
• Entwicklung einer tragenden Dämmung (Sandwichwand,
Doppeldeckerdach)
• Verkleben von Betonbauteilen
Abschließend wurden adaptive Maßnahmen für die Produktionsprozesse vorgeschlagen und das mögliche ökonomische
Potential der Anwendung abgeschätzt.
Untersuchung zur Ertüchtigung einer Gebäudehülle mit
Hilfe vorgefertigter Bauteile
Die Sanierung einer unter Denkmalschutz stehenden Grundschule in Köln war Gegenstand dieser Untersuchung. Untersucht werden sollte dabei die Möglichkeit des Einsatzes vorgefertigter Bauteile zur Ertüchtigung der Gebäudehülle unter
besonderer Berücksichtigung der objektspezifischen Randbedingungen. Nach Analyse des Gebäudebestandes mit Darlegung der vorhandenen bauphysikalischen Defizite erfolgte die
Definition der Sanierungsziele:
• Einhaltung des Denkmalschutzes
• Einhaltung bzw. Unterschreitung der maßgebenden EnEVVorgaben
• Einhaltung eines angemessenen Kosten- und Zeitrahmens
Der Schwerpunkt der Arbeit lag in der Findung und Entwicklung möglicher Vorfertigungslösungen, speziell zur Ertüchtigung der Bauteile im Bereich der Außenfassade. Unter Abwägung der Vor- und Nachteile sowie unter Berücksichtigung
der Randbedingungen wurde eine Reihe von Lösungsansätzen
erarbeitet und überprüft.
Es zeigte sich, dass durch die stringenten Vorgaben fast ausschließlich konventionelle Sanierungslösungen zum Ziel fühSelbstverdichtender Beton mit niedrigem Feinstoffgehalt
ren. Eine werkseitige Vorfertigung ist oft als nicht sinnvoll bzw.
(SVB) für die Fertigteilherstellung
praktikabel zu erachteten. Eine Vorfertigung von RahmentaAusgehend von der Technologie des selbstverdichtenden Be- felelementen kommt lediglich im Bereich der Fassaden in Betons, der hier zu berücksichtigenden SVB-Richtlinie, welche tracht. Die Vorstellung der Studie bei der Gebäudewirtschaft
Anforderungen an den Frischbeton und die dafür vorgeschrie- der Stadt Köln steht noch aus.
benen Prüfungen stellt und der Idee der Entwicklung eines
„Low Fines“, wurden zunächst die Vor- und Nachteile von SVB
für die Herstellung von Betonfertigteilen untersucht. Hierzu
21
08_hda_querschnitt_gesamt.indb 21
18.03.2008 16:07:23 Uhr
QUERSCHNITT 22
4 • Danksagung
An dieser Stelle gilt abschließend ein ganz besonderer Dank
der BASF und insbesondere den Damen und Herren des Unternehmens, die eine solche Form der Kooperation ermöglichen und unterstützen. Der Hochschule und ihren Studierenden wird auf diese Weise eine besondere Möglichkeit geboten
an einer Weiterentwicklung von Wissen und Technologie teilzuhaben.
Insbesondere gedankt seien Hr. Dr. Stephan Altmann, Hr. Dr.
Manfred Genz, Hr. Dr. Hans-Günter Hauck und Hr. Dr. Stefan
Kirsch. Dank auch den Studierenden und Mitarbeitern der h_da,
die zum Gelingen des Projektes beigetragen haben.
Literatur •
1 Forschungsbericht zum Forschungsprojekt der BASF
Aktiengesellschaft, Ludwigshafen und der Hochschule
Darmstadt, Fachbereich Bauingenieurwesen: „Identifizierung und Untersuchung von Rationalisierungspotentialen
in Bauprozessen unter besonderer Berücksichtigung des
Einsatzes von Bauprodukten oder deren Systemkomponenten“. Darmstadt, 2006.
2 J. Förster: „Identifizierung und Untersuchung von Bauprodukten oder Produktkomponenten in der fabrikähnlichen
Vorfertigung im Bauwesen-Bauteilgruppe: Rohbau, Betonbauteile“. Diplomarbeit Hochschule Darmstadt, 2007.
3 J. Nöll: „Identifizierung und Untersuchung von Bauprodukten oder Produktkomponenten in der fabrikähnlichen
Vorfertigung im Bauwesen – Bauteilgruppen: Boden, Wand,
Decke“. Diplomarbeit Hochschule Darmstadt, 2007.
4 F. Deppner: „Identifizierung und Untersuchung von Bauprodukten oder Produktkomponenten in der fabrikähnlichen
Vorfertigung im Bauwesen-Bauteilgruppen: Dach und
Fassade“. Diplomarbeit Hochschule Darmstadt, 2007.
5 L. Michel: „Identifizierung und Untersuchung von Bauprodukten oder Produktkomponenten in der fabrikähnlichen
Vorfertigung im Bauwesen-Bauteilgruppe: Haustechnik im
Sanierungsbereich“. Diplomarbeit Hochschule Darmstadt,
2007.
6 F. Beck: „Identifizierung und Untersuchung von Bauprodukten oder Produktkomponenten in der fabrikähnlichen
Produktion / Vorfertigung von Fertighäusern“. Masterarbeit
Hochschule Darmstadt, 2007.
7 C. Gehlert: „Untersuchung zur Ertüchtigung einer Gebäudehülle mit Hilfe vorgefertigter Bauteile“. Diplomarbeit
Hochschule Darmstadt, 2007.
8 E. Burger: „Vorfabrikation im Bauwesen: Füge-Techniken
im Bau“. Diplomarbeit Hochschule Darmstadt, 2007.
9 T. Schäfer: „Vorfabrikation im Bauwesen: Beton-Kunststoff-Systeme für den Bau“. Diplomarbeit Hochschule
Darmstadt, 2007.
10 V. Zahid: „Vorfabrikation im Bauwesen: Selbstverdichtender Beton mit niedrigem Feinstoffgehalt (SVB) für die
Fertigteilherstellung“. Diplomarbeit Hochschule Darmstadt, 2007.
der RWTH Aachen, Promotion an der TU Darmstadt (Institut
für Baubetrieb) zum Einfluss von Fassadensystemen auf die
schlüsselfertige Bauausführung; vor Berufung (2003) an den
Fachbereich Bauingenieurwesen der Hochschule Darmstadt
mehrjährige Projekttätigkeit im nationalem wie auch internationalem Umfeld in Bauunternehmungen (sowohl mittelständisch wie auch auf Konzernebene).
Prof. Dr.-Ing. Andreas Lang Jahrgang 1957. Von 1979 bis 1983
Studium des Bauingenieurwesens mit Schwerpunkt Baubetrieb an der Technischen Hochschule Darmstadt. Von 1984
bis 1987 Wissenschaftlicher Mitarbeiter am Fachgebiet Baubetrieb der TH Darmstadt unter der Leitung von Prof. Dr.-Ing.
Eberhard Schubert. Promotion auf dem Gebiet der Erfassung
und Bewertung von Bauablaufstörungen 1987. Von 1988 bis
1990 Technischer Projektleiter in der Neubauabteilung der Fa.
Boehringer Mannheim GmbH. Anschließend Gründung eines
Ingenieurbüros zur Baubetriebsberatung. Seit März 1995 Professor für Bauwirtschaft und Projektmanagement im Fachbereich Bauingenieurwesen. Zahlreiche Publikationen und Seminare auf dem Gebiet des Nachtragsmanagements und der
Bauablaufstörungen.
Prof. Dr.-Ing. Lothar Ruf Jahrgang 1958. Studium des Bauingenieurwesens an der Technischen Hochschule Darmstadt. Berufliche Stationen auf Auftragnehmer- und Auftraggeberseite,
sowie Ingenieurbüros. Promotion an der Technischen Hochschule Darmstadt am Institut für Baubetrieb auf dem Gebiet
der Kostenplanung. Seit 1993 an der Hochschule Darmstadt
im Fachbereich Bauingenieurwesen. Betreuer des Studienschwerpunktes Bauwirtschaft. Er vertritt die Fachgebiete Baubetrieb, Bauwirtschaft, Projektmanagement und Geodäsie.
Dipl.-Ing. (FH) Andreas Hrastnik Jahrgang 1973. Studium des
Bauingenieurwesens an der Fachhochschule Darmstadt, Vertiefungsrichtung Bauwirtschaft, mit Abschluss 2005 – zurzeit
Masterstudium an der Hochschule Darmstadt, Schwerpunkt
Bauwirtschaft. Wissenschaftlicher Mitarbeiter an der Hochschule Darmstadt am Fachbereich SUK /Sprachen 2001 und
seit 04 /2005 am Fachbereich Bauingenieurwesen im Rahmen
der Forschungskooperation mit der BASF Aktiengesellschaft,
Ludwigshafen. Neben der wissenschaftlichen und administraKurzbiografien •
tiven Arbeit Betreuung von insgesamt 17 Diplom- und MasterProf. Dr.-Ing. Dipl.-Wirt.Ing. Alexander Bubenik Jahrgang 1961. arbeiten, tlw. als Koreferent. Seit Abschluss des DiplomstuStudium des Bauingenieurwesens an der Technischen Hoch- diums freier Mitarbeiter in der RKS Ingenieurgesellschaft,
schule Darmstadt und des Wirtschaftsingenieurwesens an Kleinostheim.
22
08_hda_querschnitt_gesamt.indb 22
18.03.2008 16:07:27 Uhr
■ Faberstraße 17
■ D-67590 Monsheim
■ Tel.: 0 6 2 4 3 / 9 0 9 - 0
■ Fax: 0 6 2 4 3 / 9 0 9 - 4 0 0
■ ISDN:0 6 2 4 3 / 9 0 9 - 4 9 9
■ www.vmk-verlag.de
Verlag für Marketing
und Kommunikation
08_hda_querschnitt_gesamt.indb 192
GmbH & Co KG
■ [email protected]
18.03.2008 16:11:12 Uhr
QUERSCHNITT 22
24
08_hda_querschnitt_gesamt.indb 24
18.03.2008 16:07:27 Uhr
Biogas aus Bioabfall FACHBEREICH CHEMIE- UND BIOTECHNOLOGIE
BIOGAS AUS BIOABFALL
UNTERSUCHUNGEN ZUR BIOABFALLVERGÄRUNG AN DER HOCHSCHULE
DARMSTADT UND IN EINEM KOMPOSTWERK
Autoren •
Prof. Dr. Hans-Jürgen Koepp-Bank, Dipl.-Ing. (FH) Anja Heselich, Dipl.-Ing. (FH) Heiko Mannsperger und
Dipl.-Ing. (FH) Astrid Püstel
1 • Ausgangssituation
In technischen Systemen werden vorwiegend fossile Energiequellen in Form stark reduzierter Kohlenstoff verbindungen mit hohem Energieinhalt eingesetzt. Im Gegensatz hierzu dienen in natürlichen
Stoffkreisläufen organische Substanzen auf der (mittleren) Reduktionsstufe von polymeren Kohlenhydraten (Stärke, Zellulose) zugleich als Kohlenstoff- und Energiespeicher. Diese werden je nach Umgebungsbedingungen aerob zu Kohlendioxid oxidiert („Atmung“) oder – was sie auch technisch interessant machen – anaerob zu Methan reduziert („Methanisierung“). Der letzte Schritt findet in der Natur
z.B. in Fluss- und Meeressedimenten, im Pansen von Wiederkäuern, im Darm von Termiten und in
überfluteten Reisfeldern statt.
Nahezu jede Kohlenstoff verbindung kann zu Methan und Kohlendioxid disproportioniert werden
(Symons & Buswell 1933):
CC Hh OO NN SS + 41 (4c – h – 2o + 2s) H2O →
1
1
8 (4c – h + 2o + 3n + 2s) CO2 + 8 (4c + h – 2o – 3n – 2s) CH4+ nNH4+ sH2S
25
08_hda_querschnitt_gesamt.indb 25
18.03.2008 16:07:36 Uhr
QUERSCHNITT 22
Biogasproduktion (mL)
600
500
400
300
200
100
0
0
1
2
3
4
5
6
7
Tage
Abbildung 1 • Anaerobe Messfl aschen zur manometrischen Biogasmessung
Abbildung 2 • Anaerober Abbau von Biopresswasser (BPW) und Deponiesickerwasser (DSW) in unterschiedlicher Zusammensetzung
Je reduzierter eine organische Verbindung ist, desto höher ist
der Methananteil:
zur Reinigung von organisch hoch belasteten Abwässern der
Papier- und Zellstoffindustrie, der Zucker-, Stärke- und Lebensmittelindustrie eingesetzt. Auch organische Feststoffe
werden schon lange zu Biogas vergoren: so wurde bereits
1947 in Darmstadt ein horizontaler Fermenter zur anaeroben
Umsetzung landwirtschaftlicher Abfallstoffe („System Darmstadt“) entwickelt. In den 50er Jahren des letzten Jahrhunderts gab es in Deutschland bereits ca. 50 Biogasanlagen für
landwirtschaftliche Abfallstoffe (Schulz 1996). Ebenso werden
Bioabfälle in Deutschland seit mehr als 30 Jahren getrennt
gesammelt und stofflich verwertet, d.h. kompostiert oder vergoren. Seit den 90er Jahren hat sich die Menge des getrennt
gesammelten Bioabfalls mehr als versiebenfacht.
Bei der Kompostierung von Bioabfällen fallen zwischen 10
und 20 % (v /v) organisch hoch belastete Presswässer an, die
bisher zumeist in kommunalen Kläranlagen gereinigt werden.
Im Auftrag der Gesellschaft für Bioabfallwirtschaft (GBAB)
Aschaffenburg wurde der anaerobe Abbau eines im Kompostwerk Aschaffenburg anfallenden Biopresswassers untersucht.
Dabei kann sich die Menge des Biopresswassers bei einer mechanischen Vorbehandlung des Bioabfalls noch erhöhen.
Zusätzlich wurde der gemeinsame anaerobe Abbau dieses Biopresswassers mit einem Sickerwasser der Hausmülldeponie
Stockstadt untersucht, das bisher ebenfalls in der kommunalen Kläranlage aerob gereinigt wurde. Geplantes Ziel der
Kommune war die gemeinsame Cofermentation beider Abwässer in einem Bioreaktor zu Biogas.
Bsp.:
Glucose: C6 H12 O6 → 3CO2 + 3CH4
Buttersäure: C4 H8 O2 + H2O → 1,5 CO2 + 2,5 CH4
Damit sind z.B. langkettige Alkohole und Fettsäuren die besten Substrate für hohe Methanausbeuten, zugleich gehören
sie jedoch zu den energetisch problematischen Verbindungen,
die nur von obligat syntrophen mikrobiellen Mischkulturen
umgesetzt werden können (Schoberth 1978).
Die mikrobielle Umsetzung organischer Feststoffe erfolgt unter anaeroben Bedingungen in mehreren Schritten, wobei die
vorgelagerte Hydrolyse der Polymere den geschwindigkeitsbestimmenden Schritt darstellt. Daher ist eine vorherige mechanische Zerkleinerung zur Vergrößerung der Angriffsfläche
für die hydrolysierende Bakterien sowie zum Aufschluss von
Lignocellulose-Komplexen eine Voraussetzung zur wirtschaftliche Biogaserzeugung aus Biomüll (Scherer 2001). Als Zwischenprodukte bei der weiteren anaeroben Umsetzung werden
verschiedene Alkohole und Fettsäuren gebildet. Der Abbau der
Fettsäuren zu Essigsäure, Wasserstoff und Kohlendioxid bildet thermodynamisch einen kritischen Schritt der Methangärung, der nur von obligat syntrophen Mischkulturen katalysiert
werden kann. Bei Störungen des anaeroben Abbaus kommt es
zu einer Anreicherung von organischen Säuren, was in der Betriebspraxis an einem Abfall des pH-Wertes zu erkennen ist.
Essigsäure, Wasserstoff und Kohlendioxid bilden schließlich
die Substrate für die letzte Gruppe des anaeroben Abbaus, die
Methanbakterien.
Die anaerobe Umsetzung wird schon seit langem erfolgreich
26
08_hda_querschnitt_gesamt.indb 26
18.03.2008 16:07:37 Uhr
Biogas aus Bioabfall FACHBEREICH CHEMIE- UND BIOTECHNOLOGIE
4500
4000
3500
CSB (mg/L)
3000
2500
2000
1500
1000
500
0
0 % BPW
100 % DSW
33 % BPW
66 % DSW
67 % BPW
33 % DSW
100 % BPW
0% DSW
Kontrolle
Anteil Biopresswasser (BPW) / Deponiesickerwasser (DSW)
Abbildung 3 • Gemeinsamer anaerober Abbau von Biopresswasser und Deponiesickerwasser unterschiedlicher Zusammensetzung nach 3 bzw. 7 Tagen
Abbildung 4 • Laborfermenter für anaerobe Abbauuntersuchungen
2 • Abwässer
Für die Untersuchungen wurde zunächst Biopresswasser des
Kompostwerkes Aschaffenburg und Sickerwasser der Deponie Stockstadt verwendet.
Erste Analysen der beiden Abwässer ergaben folgende Werte
(Tab. 1):
3 • Voruntersuchungen zur anaeroben biologischen Abbaubarkeit
Zur Untersuchung der anaeroben Abbaubarkeit von flüssigen
und festen organischen Substanzen werden sowohl BatchTests (z.B. ATV-DVWK 2004, DIN EN ISO 11734) als auch kontinuierliche Testverfahren in Fermentern eingesetzt (Jörg 2001).
Dabei sind die besonderen physiologischen Bedingungen für
die anaeroben Mischkulturen zu beachten: insbesondere die
Redoxverhältnisse (Methanbakterien sind extrem sauerstoffempfindlich), die Temperatur, der pH-Wert und die Nährstoffverhältnisse beeinflussen den anaeroben Abbau. Sowohl
Batch- als auch kontinuierliche Abbautests erfordern daher
eine strikt anaerobe Arbeitsweise: für die Untersuchungen
wurden die Messflaschen bzw. Fermenter unter Stickstoff-Begasung mit der Animpf-Biomasse und den zu untersuchenden
Abwasser- bzw. Abfallproben gefüllt. Die Inkubation erfolgte
anschließend bei 37 °C, da in diesem mesophilen Bereich der
anaerobe Abbau am stabilsten abläuft. Der pH-Wert wurde auf
einen Wert von pH 7,0 eingestellt: hier ist insbesondere der enge pH-Optimumswert von pH 6,8-7,2 für die obligat syntrophen
Fettsäure abbauenden Mikroorganismen zu beachten.
Für die diskontinuierlichen Abbau-Untersuchungen wurde ein
modifizierter manometrischer Batch-Test verwendet, der ursprünglich für die Bestimmung der aeroben Abbaubarkeit von
Abwässern entwickelt wurde (Süßmuth et al. 2000). Dabei wird
die Biogasproduktion der mit anaerobisiertem Wasser verdünnten Proben manometrisch über den Druckanstieg in den
Flaschen erfasst (Koepp-Bank 2005) (Abb.1).
Während des Versuches können zusätzlich über seitlich angebrachte gasdichte Septen Proben des Flascheninhalts entnommen und analysiert werden.
Abwasser
Biopresswasser
Deponiesickerwasser
CSB (mg/L)
ph-Wert
3.605 - 57.725
4,1 - 8,4
825 - 1.190
7,5 - 7,6
Tabelle 1 • Analyse der untersuchten Abwässer
Das Biopresswasser enthielt je nach Anlieferung einen unterschiedlich hohen Anteil an Feststoffen (u.a. Pflanzenreste,
Holz, Maden). Die stark schwankende Konzentration des Chemischen Sauerstoffbedarfs (CSB) ist auf eine unterschiedliche
Lagerdauer des Biomülls in den Biotonnen und im Kompostwerk zurück zu führen. Bei längerer Lagerdauer setzt die Hydrolyse und Vergärung der organischen Inhaltsstoffe ein, was
zu einer Absenkung des pH-Wertes aufgrund der intermediär
gebildeten Fettsäuren führt.
Der niedrige CSB-Gehalt des Deponiesickerwassers deutet in
Verbindung mit dem neutralen pH-Wert auf eine bereits weitgehend stabilisierte Deponie hin. Das CSB:N:P-Verhältnis des
Deponiesickerwassers liegt bei ca. 200:124:1, wobei der Stickstoff hauptsächlich in reduzierter Form als Ammonium vorliegt. Das CSB:BSB5-Verhältnis liegt bei ca. 6:1, was auch auf
eine schlechte aerobe biologische Abbaubarkeit des Sickerwassers hinweist.
27
08_hda_querschnitt_gesamt.indb 27
18.03.2008 16:07:43 Uhr
QUERSCHNITT 22
Kumulierte Biogasproduktion [L]
Biogas (L)
CSB (mg/L)
1200
1000
Biogasproduktion
800
600
400
CBS-Konzentration
200
0
0
5
10
15
500
1,6
400
1,4
350
1,2
300
1
250
0,8
200
0,6
150
0,4
100
0,2
50
0
0
20
0
10
20
30
40
50
60
70
Tage
80
90
100
Tage
Abbildung 5 • Anaerober Abbau von Biopresswasser im Laborfermenter
Abbildung 7 • Kumulierte Biogasproduktion im kontinuierlich betriebenen
Laborfermenter
Die Biogasproduktion und der Verlauf der CSB-Konzentration
zeigen, dass das Deponiesickerwasser anaerob nicht weiter
abgebaut wird (Abb. 1 und 2).
Offenbar ist der Abbauprozess in der Deponie bereits soweit
fortgeschritten, dass nur noch biologisch schwer abbaubare
Inhaltsstoffe im Sickerwasser enthalten sind. Für eine gemeinsame Cofermentation mit Biopresswasser ist daher das Deponiesickerwasser nicht geeignet.
Das Biopresswasser dagegen ist anaerob leicht abbaubar. Die
CSB-Konzentration wurde innerhalb von 7 Tagen um über 90 %
reduziert und zu Biogas umgesetzt (Abb.3).
Die weiteren Untersuchungen wurden daher nur noch mit Biopresswasser durchgeführt.
der intermediär gebildete Wasserstoff zu einer Inhibierung
der weiteren Umsetzung, insbesondere der Propionsäure. Die
Biogasproduktion wurde mit einer Gasuhr gemessen. Proben
des Fermenterinhalts wurden unter anaeroben Bedingungen
entnommen und die CSB-Konzentration photometrisch bestimmt.
Das verdünnte Biopresswasser wurde bereits in den ersten
Tagen zur Hälfte abgebaut (Abb. 5).
Mit der nicht adaptierten Animpfbiomasse und verdünntem
Biopresswasser wurde ein CSB-Abbaugrad von über 60 % erreicht. Entsprechend dem CSB-Abbau erreichte die Biogasproduktion bereits in den ersten Tagen ein Maximum und sta-
4 • Diskontinuierliche Abbauuntersuchungen in einem
Laborfermenter
Die Untersuchungen zur anaeroben Abbaubarkeit in einem
diskontinuierlich betriebenen Laborfermenter wurden im Labor für Bioverfahrenstechnik der Hochschule Darmstadt durchgeführt (Abb. 4).
Der Rührkesselreaktor wurden unter Stickstoffbegasung mit
dem Abwasser gefüllt und mit Faulschlamm aus der kommunalen Kläranlage Aschaffenburg angeimpft. Das Biopresswasser wurde aufgrund der hohen CSB-Konzentration mit
zuvor anaerobisiertem Wasser verdünnt. Der pH-Wert wurde
auf pH 7,0 eingestellt und gegebenenfalls nachgeregelt. Die
Temperatur im Fermenter wurde mit einem externen Wasserbad auf 37 °C eingestellt. Die Rührerdrehzahl wurde auf ca. 60
U /min gedrosselt, um eine Inhibierung der obligat syntrophen
Mischkulturen zu vermeiden. Werden die beteiligten Mikroorganismen z.B. durch Scherkräfte räumlich getrennt, so führt
Abbildung 6 • Laborfermenter im Kompostwerk Aschaffenburg
28
08_hda_querschnitt_gesamt.indb 28
18.03.2008 16:07:49 Uhr
Biogas aus Bioabfall FACHBEREICH CHEMIE- UND BIOTECHNOLOGIE
Gelöster CSB [mg/L]
Gasproduktion [L Gas/g CSBelim]
20000
0,9
18000
0,8
16000
0,7
14000
0,6
12000
0,5
10000
8000
0,4
6000
0,3
4000
0,2
2000
0,1
0,0
0
0
10
20
30
40
50
60
70
80
90
100
Tage
0
20
40
60
80
100
Tage
Abbildung 8 • Verlauf der CSB-Konzentration im kontinuierlich betriebenen
Laborfermenter
Abbildung 9 • Spez. Biogasproduktion bezogen auf den eliminierten CSB
gnierte anschließend. Offensichtlich wurden biologisch leicht
abbaubare Inhaltsstoffe des Biopresswassers bereits in den
ersten Tagen methanisiert.
Dieses durch mechanische Zerkleinerung des Bioabfalls gewonnene Biopresswasser ist organisch sehr hoch belastet,
was wiederum auf eine bereits eingesetzte Hydrolyse und Versäuerung hinweist.
Nach einer Adaptionsphase des zur Animpfung verwendeten
Faulschlammes von ca. 3 Wochen konnte die Zugabe des Biopresswassers und damit die Biogasproduktion deutlich gesteigert werden (Abb. 7).
Die CSB-Konzentration im Bioreaktor reduzierte sich im Laufe
der anaeroben Umsetzung von zu Beginn über 15.000 mg /L auf
Konzentrationen im Bereich von 3.500-4.000 mg /L (Abb. 8).
Die Zugabe von frischem Biopresswasser erfolgte dabei in Abhängigkeit von der Abbaugeschwindigkeit repetitiv: dabei wird
ein Teil des weitgehend umgesetzten Reaktorinhalts umgehend durch frisches Biopresswasser ersetzt. Wie der Verlauf
der CSB-Konzentration des Laborfermenters zeigt, wurde das
frisch zugesetzte Biopresswasser rasch umgesetzt. Die spezifische CSB-Abbauleistung lag nach der Adaptionsphase bei
4-8 kg CSB /(m³*d).
Die durchschnittliche spezifische Biogasproduktion betrug
nach der Adaptionsphase ca. 0,4-0,5 L Biogas /g CSBelim (bezogen auf den gelösten CSB)(Abb.9).
Die theoretische Methanausbeute liegt entsprechend:
CH4 + 2O2 → CO2 + 2H2O bei ca. 0,350 NL Methan /g CSBelim bzw.
bei 0,525 NL Biogas /g CSBelim und einem angenommenen Methan-Gehalt von 66 %.
5 • Kontinuierliche Abbauuntersuchungen im Kompostwerk
Aschaffenburg
Ein Nachteil von Abbauuntersuchungen im Labor ist, dass
Schwankungen in der Zusammensetzung des Abwassers nicht
erfasst werden können. Aussagen über reale Abbauleistungen
ermöglichen nur Fermentationsversuche vor Ort. Daher wurden die folgenden Untersuchungen direkt im Kompostwerk der
Stadt Aschaffenburg in einem Rührkesselfermenter durchgeführt (Abb. 6).
Das dabei verwendete Biopresswasser wurde durch mechanische Vorbehandlung in der Kompostanlage Schuh (Langenzenn-Keidenzell) gewonnen. Dazu wurden frisch gesammelte
organische Abfälle zerkleinert, gesiebt, homogenisiert und die
Flüssigphase abgetrennt. Zur Bestimmung der CSBgesamt-Konzentration wurde das Biopresswasser zuvor homogenisiert.
Das Biopresswasser wies folgende Zusammensetzung auf
(Tab. 2):
CSB gelöst (g/L)
116-166
TS-Gehalt (g/L)
20,7
Glühverlust (%)
73,5
Gesamt-Stickstoff (g/L)
3,79
pH-Wert
4,43
Tabelle 2 • Zusammensetzung des Biopresswassers der Kompostanlage
Langenzenn
29
08_hda_querschnitt_gesamt.indb 29
18.03.2008 16:07:52 Uhr
QUERSCHNITT 22
6 • Schluss
Das ursprüngliche Ziel der Kommune, das Deponiesickerwasser im Rahmen einer Cofermentation
mit Biopresswasser zu vergären, erwies sich als ungeeignet. Dagegen lässt sich sowohl das bei der Kompostierung anfallende Biopresswasser als auch Bioabfall nach mechanischer Vorbehandlung zu über
90 % zu Biogas vergären.
Im Jahr 2003 wurden etwa 12,3 Mio. t Bioabfälle aus Haushalten, Garten- und Parkabfälle, Abfälle aus
der Lebensmittelverarbeitung, aus Gaststätten und Großküchen sowie der Landwirtschaft in mehr
als 800 Kompostierungsanlagen und ca. 75 Vergärungsanlagen behandelt. Bis spätestens 2020 sollen die
Behandlungstechniken darüber hinaus so weiterentwickelt und ausgebaut werden, dass alle Siedlungsabfälle in Deutschland vollständig und umweltverträglich verwertet werden (UBA 2007).
Während bei der Kompostierung von Bioabfall die leicht abbaubare Fraktion zu Kohlendioxid und
Wasser oxidiert und die schwerer abbaubare Fraktion zu Kompost umgesetzt wird, wird bei der Vergärung
von Bioabfall Biogas gebildet. Dabei sind die Abbauraten der Biomasse bei der Kompostierung und
Vergärung in etwa gleich. Während erste Kompostierungsanlage in Duisburg und Bad Kreuznach bereits
in den 50er Jahren errichtet wurden, wurden Vergärungsanlagen für Biomüll aus Haushalten erst
Ende der 90er Jahre geschaffen. Seither hat sich die Behandlungskapazität von Anlagen zur Vergärung
von Bioabfällen in Deutschland auf 2,4 Mio. t im Jahr 2005 nahezu verzehnfacht (Baur 2005).
Der verstärkte Anstieg der Rohölpreise in den letzten Jahren hat gleichzeitig zu einer Verteuerung der
agrarischen Rohstoffpreise geführt. Im Zuge des weltweiten Booms bei Bioethanol und Biodiesel
wird heute bereits ein Fünftel der amerikanischen Maisernte in Biotreibstoffe umgewandelt (Stadlbauer
2007). Vor diesem Hintergrund gewinnt die Energieerzeugung durch Vergärung von Bioabfall an
Bedeutung.
Aus Bioabfällen aus Haushalten lassen sich ca. 0,4 m3 Biogas / kg organische Trockensubstanz (oTS)
gewinnen. Bei einer angenommen Jahresmenge von 6 Mio t durch zusätzliche Erfassung von Bio- und
Grünabfällen könnten damit jährlich 1,2 Mrd. m3 Biogas bei vollständiger Vergärung erzeugt werden.
Damit ließe sich zugleich aus Sicht des Klimaschutzes ein erhebliches Potential erschließen (UBA 2007).
30
08_hda_querschnitt_gesamt.indb 30
18.03.2008 16:07:53 Uhr
Biogas aus Bioabfall FACHBEREICH CHEMIE- UND BIOTECHNOLOGIE
Abbildung 10 • Kompost als Endprodukt der Bioabfallverwertung (Fotorealisation mit freundlicher Unterstützung des Kompostwerkes Darmstadt-Dieburg)
Literatur •
1 ATV-DVWK-Arbeitsgruppe IG 5.1: Anaerobe Testverfahren
zu Abbaubarkeit, Hemmung und Aktivität. Korrespondenz
Abwasser 51, 997-1002 (2004)
2 Baur F.: Stromerzeugung aus Bioabfällen in Deutschland
– ein Beitrag zum Klimaschutz. Regionales Abfallforum
des Entsorgungsverbandes Saar (2005)
3 Deutsche Einheitsverfahren zur Wasser-, Abwasser und
Schlammuntersuchung (DEV): Bestimmung der „vollständigen“ anaeroben biologischen Abbaubarkeit organischer
Verbindungen im Faulschlamm - Verfahren durch Messung der Biogasproduktion. (DIN EN ISO 11734)
4 Jörg R.: Testverfahren zur anaeroben biologischen Abbaubarkeit. In: Kämpfer P., Weißenfels W.D.: Biologische
Behandlung organischer Abfälle. Berlin: Springer (2001)
5 Koepp-Bank H.-J.: Einsatz eines mikrobiellen Batchtest
zur Untersuchung der anaeroben Abbaubarkeit von Abwässern der Papier- und Zellstoffindustrie. Querschnitt Nr.
19, 118-119 (2005)
6 Scherer P.: Mikrobiologie der Vergärung von festen Abfallstoffen. In: Kämpfer P., Weißenfels W.D.: Biologische
Behandlung organischer Abfälle. Berlin: Springer (2001)
7 Schoberth S.M.: Mikrobielle Methanisierung von Klärschlamm. In: Biologische Abfallbehandlung. BMFT Bonn
(1978)
8 Schulz H.: Biogas-Praxis: Grundlagen, Planung, Anlagenbau. Ökobuch: Staufen (1996)
9 Stadlbauer E.A.: Energie frisst Nahrung. η[energie] 3, 2627 (2007)
10 Symons G.E. & Buswell A.M.: The methane fermentation of
carbohydrates. J. Am. Chem. Soc. 55, 2028-2036 (1933)
11 Süßmuth R., Doser C., Lueders T.: Bestimmung der biologischen Abbaubarkeit organischer Stoffe unter anaeroben
Bedingungen mit dem Meßsystem OxiTop Control. WTWBericht 0600412 (2000)
12 Umweltbundesamt (UBA): Stoffstrommanagement von
Biomasseabfällen mit dem Ziel der Optimierung der Verwertung organischer Abfälle. Umweltbundesamt: Dessau
(2007)
Kurzbiografie •
Prof. Dr. Hans-Jürgen Koepp-Bank Jahrgang 1956. Studium
der Biologie und Geographie an der Universität Köln (19751982). Von 1982-1985 wissenschaftlicher Mitarbeiter am Institut für Biotechnologie des Forschungszentrums Jülich. 1986
Promotion auf dem Gebiet der industriellen anaeroben Abwasserreinigung an der Universität Düsseldorf bei Prof. Dr.
Sahm. Von 1985-1993 Tätigkeit in der Industrie, u.a. bei der Fa.
Siemens-KWU im Bereich Biotechnischer Anlagenbau. 19931998 Professur für Bioverfahrenstechnik und Technische Mikrobiologie an der Fachhochschule Köln. Seit 1998 Professor
für Bioverfahrenstechnik im Fachbereich Chemie- und Biotechnologie der Hochschule Darmstadt.
31
08_hda_querschnitt_gesamt.indb 31
18.03.2008 16:07:53 Uhr
QUERSCHNITT 22
μ-GRIDS
DER WEG ZU INTELLIGENTEN STROMNETZEN
UND UMWELTFREUNDLICHER
STROMVERSORGUNG
Autoren •
Thorsten Fiedler und Dieter Metz
1 • Kurzfassung
Die elektrische Energieversorgung Europas befindet sich in einer Umorientierungsphase. Der Klimaschutz, die Liberalisierung und der alterungsbedingte Erneuerungsbedarf in den Netzen erfordern eine
Umgestaltung. Im Erzeugungsbereich ist durch den Einbezug regenerativer Quellen ein Anfang
gemacht, aber schon dieser hat die historisch gewachsene Infrastruktur der Netze an die Grenzen
belastet. Der weitere, dringend notwendige Ausbau überfordert die bestehenden Netze und ihr
Stabilitätskonzept, das zentral strukturiert ist und auf der hohen Verfügbarkeit vieler Großkraft werke
basiert [1]. Eine strukturelle Umgestaltung ist notwendig, die auch bei dezentraler, fluktuierender
und regenerativer Einspeisung eine hohe Stabilität und Verfügbarkeit garantiert. „μ-Grids“, „SmartGrids“
und „Intelligente Stromnetze“ sind Stichworte für Lösungen, die in diesem Aufsatz diskutiert werden.
2 • Motivation und Aufgabe
Für die bestehende, zentral strukturierte Stromversorgung in
Europa stellen sich neue Herausforderungen, insbesondere
durch den stetig steigenden Bedarf an Energie, durch die Notwendigkeit der deutlichen Reduktion klimaschädlicher Gase
und durch die fortschreitende Liberalisierung mit Öffnung der
Energiemärkte. Zweifellos hat die Stromversorgung in den ca.
100 Jahren ihres Bestehens Wesentliches zur Entwicklung der
Gesellschaft und der Wirtschaft beigetragen. Sie arbeitete bis
in die 90er Jahre des letzten Jahrhunderts ausgesprochen zuverlässig und gewissermaßen unauffällig, gerade auch in der
Bundesrepublik, und ist erst in den letzten Jahren von größeren Störungen und Ausfällen betroffen. Sicher trugen der
Liberalisierungsprozess und dessen Folgen mit Einsparmaßnahmen an Personal und Investitionen zu einer Verschlechterung bei. Letztlich ist aber aus heutiger Sicht die historisch
gewachsene Struktur gleich mehrfach unbefriedigend: Die
Produktion gefährdet das Klima, die Netzkapazitäten ermöglichen den freien Energieaustausch nur unzureichend und die
Versorgungszuverlässigkeit ist trotz erheblicher Preissteigerungen wachsend gefährdet.
32
08_hda_querschnitt_gesamt.indb 32
18.03.2008 16:08:01 Uhr
μ-Grids FACHBEREICH ELEKTROTECHNIK UND INFORMATIONSTECHNIK
S
DK
?
?
ne
e
Pe
Hamburg
Elb
e
Bremen
PL
NL
er
vel
Od
Ha
All
er
Hannover
Berlin
er
es
W
Essen
Elbe
Dortmund
Leipzig
We
r
Ruhr
ra
Dresden
Köln
B
Fulda
ein
Rh
Frankfurt
os
el
Mai
M
n
L
CZ
Stuttgart
Donau
Ne
F
Karlsruhe
ck
ar
Saar
Nürnberg
München Inn
ar
Is
ch
Le
A
CH
Leitungsverbindungen
330 kV
220 kV
HGÜ-Freileitung/Kabel
Stromrichterstationen
Umspannwerke
Städte
Abbildung 1 • Das bestehende Transportnetz der Bundesrepublik, Quelle: BDEW
I
08_hda_querschnitt_gesamt.indb 33
33
18.03.2008 16:08:03 Uhr
QUERSCHNITT 22
Die Stromversorgung Europas wuchs in den vergangenen ca.
100 Jahren permanent, wobei die Struktur auf der Basis gesicherter Gebietsmonopole entstand. Dies führte in der Bundesrepublik zu einem Erzeugungsmix mit überwiegend großen
Wärmekraftwerken (Kohle- und Kernkraft) oft mit Leistungen
von mehreren 1000 MW und zu einem darauf hin zugeschnittenen Transport- und Verteilnetz in die Verbraucherschwerpunkte. Schon die Einbindung von weniger als 10 % Windkraft
an neuen Standorten belastete die Netze im Grenzbereich,
gebietsweise auch darüber [2]. Das bestehende 400-kV Transportnetz der Bundesrepublik ist in Abb. 1 dargestellt. Sie erkennen, dass beispielsweise für offshore Windparks in der
Nord- und Ostsee kein ausreichendes Transportnetz besteht,
um diese großen Energien im Netz zu verteilen.
Der Klimaschutz fordert nun eine wesentliche Steigerung des
Anteils an dezentraler, regenerativer Erzeugung. Die Stromversorgung in Deutschland muss dann künftig völlig neuen
Anforderungen genügen, denen die historisch gewachsene
Struktur offensichtlich nicht mehr gerecht wird. An Aufgaben
entstehen insbesondere
• die Integration bereits existierender oder geplanter regenerativer Erzeugung mit hoher fluktuierender Leistung (Onund Offshore-Windparks) in erweiterte Übertragungsnetze,
• die Unterstützung und Realisierung eines europäischen
Strommarktes mit weiträumigem Austausch und entsprechend hoher Transportkapazität,
• die Bildung von stabilen Teilnetzen mit eigener Bezugsoptimierung, Lastführung, lokalen Kleinkraftwerken und dezentralen Speichern, oft als „SmartGrids“ oder „μ-Grids“
bezeichnet,
• Verfahren zur sicheren und wirtschaftlich optimierten Planung der Netze und Speicher,
• die intelligente Netzführung mit Prognose, Speicherbewirtschaftung und Lastführung zur Optimierung und Steigerung
der Energieeffizienz auf lokaler Ebene,
• die Überwachung der Netze, lokal und auf europäischer
Ebene und
• Trainingswerkzeuge zur sicheren Netzführung.
Gerade die traditionelle Planung der Netze, die auf den Monopolmarkt zugeschnitten den Kraftwerks- und Netzausbau integriert und als Einheit betrachtete, ist unter den neuen Marktbedingungen nicht mehr zeitgemäß, da mit dem Unbundling
(Auftrennen der Versorger in Unternehmen für Produktion,
Netztransport und Handel /Vertrieb) zunehmend neue Marktteilnehmer mit eigenen, überwiegend regenerativen Erzeugungskapazitäten an neuen Standorten im Markt tätig werden
und für deren Marktteilnahme ausreichend Einspeise- und
Transportkapazität bereitstehen sollte.
Unter den grundsätzlich veränderten Rahmenbedingungen im
Markt und den dringenden Zielen des Klimaschutzes gilt es, die
technischen Voraussetzungen zu schaffen, dass die Ziele der
Umweltverträglichkeit, des diskriminierungsfreien Marktzugangs und der Versorgungssicherheit gleichermaßen erreicht
werden. Da die Infrastruktur der Stromversorgung sehr teure
und sehr langlebige Wirtschaftsgüter enthält und allein in der
Bundesrepublik viele 100 Milliarden Euro in diese Infrastruktur investiert wurden, kann es nicht darum gehen, die bestehende Infrastruktur komplett und sofort zu ersetzen, sondern
darum, einen Migrationsvorgang in Bewegung zu setzen, der
die Stromversorgung im gewünschten Sinne transformiert, so
dass in etwa 10 Jahren die gewünschten Ziele erreicht werden
können.
3 • Lösungsansätze für eine zukunftsfeste Versorgungsstruktur
Durch Studien des VDE, ZVEI, VDN und anderer Institutionen
und Verbände ist die bestehende Infrastruktur weitgehend
analysiert, und die Schwächen sind bekannt. Verschiedene Lösungsschritte teils sehr unterschiedlicher und widersprüchlicher Art, sind in der Diskussion. Erklärbar sind die Widersprüche durch die strategischen Ziele der Unternehmungen.
Sicher haben die vier großen Stromproduzenten eher das Ziel
weitere große Einheiten, auch große Windparks, in die Netze
zu integrieren, während die kleineren kommunalen Unternehmen eher eine Unabhängigkeit anstreben und am Ausbau interner, kleiner Einheiten interessiert sind. Die Lösungen werden
im Spannungsfeld technischer Möglichkeiten und politischer
34
08_hda_querschnitt_gesamt.indb 34
18.03.2008 16:08:04 Uhr
μ-Grids FACHBEREICH ELEKTROTECHNIK UND INFORMATIONSTECHNIK
400 kV DST
DST
KKW
HGÜ
DST
DST
AKW
WP
400 kV DST
Abbildung 2 • Struktur eines künftigen Übertragungsnetzes mit HGÜ und nationalen 400-kV Drehstrom-Netzen, HGÜ: Hochspannungs-Gleichstrom-Übertragung,
DST: Drehstomnetz, WP: Windpark, AKW: Kernkraftwerk, KKW: Kohlekraftwerk
Randbedingungen gefunden. Wie sie auch immer im Detail
aussehen werden, wichtig ist die die Entwicklung von Prognose-, Simulations- und Planungswerkzeugen zur sicheren
Definition der geeigneten Migrationsschritte. Die Simulationswerkzeuge werden Kontrollrechnungen zur Dimensionierung,
Verifikation und Optimierung der Netze und Komponenten ermöglichen. Die Werkzeuge müssen allerdings flexibel für die
Prüfung unterschiedlicher Lösungswege geeignet sein. Insbesondere fehlen noch:
1 • Effiziente Prognoseverfahren für
- einen variablen Erzeugungsmix mit fluktuierender, regenerativer Einspeisung,
- Lastverläufe, die mit flexibler Tarifgestaltung beeinflussbar sind,
2 • Werkzeuge zur Dimensionierung der μ-Grids mit variablem Erzeugungsmix, mit hohem regenerativem Anteil und
mit dezentralen Speichern,
3 • EU-weite Lastflussrechnungen und Ausfallsimulationen
für künftige Netzstrukturen mit Prüfung von Komponenten
zur Förderung der Systemstabilität,
4 • Konzepte und Systeme Informations- und Leittechnik zum
sicheren Datenaustausch zwischen den Leitstellen,
5 • Frühwarnsysteme sowie Trainings- und Schulungswerkzeuge für den sicheren operativen Betrieb der künftigen
Netze.
4 • Netzstruktur
Für einen Stromaustausch sind die bestehenden 400-kV Drehstromnetze durchaus geeignet. Mit wachsender Entfernung
wird das aber zunehmend problematischer und es treten Stabilitäts- und Blindleistungsprobleme auf, die hohe Investitionen in Kompensationsanlagen oder so genannte FACTS (Flexible AC Transmission Systems) erfordern. Die Gerätetechnik
existiert, jedoch hat man in der Bundesrepublik damit noch
wenig praktische Erfahrungen. Eine andere Technologie, die
der Hochspannungs-Gleichstromübertragung (HGÜ), erlaubt
einen weiträumigen, verlustarmen Transport, bei der die Entfernung eine nur untergeordnete Rolle spielt und bei der keine
Blindleistungsprobleme auftauchen. Sie erlaubt außerdem
den Parallelbetrieb von nicht synchron laufenden Drehstromnetzen.
Eine künftig mögliche Netzstruktur besteht aus einem europaweiten HGÜ-Ring, einem unterlagerten 400-kV-DrehstromÜbertragungsnetz, dem die regionalen 110-kV-Transportnetze
unterlagert sind. An diese wiederum werden die μ-Grids, die
regionalen Transportnetze der Mittelspannung und der Verteilnetze (z.B. Stadtwerke) angekoppelt.
Die bisherigen Netze werden in die neue Struktur voll integriert. Neu an der Struktur sind im Wesentlichen zwei Erweiterungen bzw. Umgestaltungen. Erstens der HGÜ-Ring, auf den
die konventionellen Großkraftwerke und weitere große Windparks, z.B. offshore Parks einspeisen. Über dieses Netz wird
der weiträumige Transport abgewickelt, siehe Abb.1. Und zweitens die μ-Grids, die einen Leistungsausgleich in den unteren
Spannungsebenen erzielen sollen, siehe Abb.2.
5 • Übertragungsnetze
Von den Übertragungsnetzen wird künftig ein weitaus höheres
Maß an Transportkapazität, Spannungshaltung und effizienter
Lastflusssteuerung erwartet. Die weiter steigende Komplexität und die teilweise gegensätzlichen Anforderungen sind nur
durch eine vernetzte, systemweite Betrachtung des Gesamtsystems zu lösen. Die vielfältigen Wechselwirkungen machen
intensive Systemforschungs- und Entwicklungsarbeiten notwendig. Schon 10 % Windkrafteinspeisung haben das europäische Verbundnetz an die Grenzen und auch darüber hinaus
belastet. Das künftige Übertragungsnetz soll auf ca. 30 % und
später auf 50 % regenerative Einspeisung ausgelegt werden.
Der Einbezug großer Offshore-Windparks hat die Folge, dass
sich europaweit verteilt Gebiete mit Flaute und mit hoher Einspeiseleistung abwechseln. Es ist abzusehen, dass diese künftigen Übertragungsaufgaben durch die bestehenden 400-kV
Drehstromnetze nicht gelöst werden können. Ein über Leistungselektronik angekoppelter HGÜ-Ring kann den Austausch
und damit einen wichtigen Beitrag zur Stabilisierung leisten.
Der Lastfluss auf dem HGÜ-Ring wird kontrolliert und mittels
Lastflusssteuerung effektiv beeinflusst.
35
08_hda_querschnitt_gesamt.indb 35
18.03.2008 16:08:04 Uhr
QUERSCHNITT 22
HGÜ
DST
DST
DST
400 kV DST
Fahrplan
L
WKW
~
KWK
L
S
L
WKW
L
WKW
μ-Grid
100-kV DST
20-kV DST
Abbildung 3 • μ-Grid mit netzinternen Erzeugungen und Speichern und einem Lastmanagement, KWK: Kraftwerk mit Wärmeauskopplung, L: Lasten,
WKW: Windkraftwerke, DST: Drehstromsystem, HGÜ: Hochspannungsgleichstrom-Übertragungsnetz
6 • HGÜ und FACTS als Netzkomponenten
Besondere Netzbelastungen entstehen durch unvorhersehbare Verschiebungen der Lastflüsse, wie sie zum Beispiel
durch Windstromeinspeisung oder durch Stromhandel hervorgerufen werden können. Diese können durch flexible Wechselstromübertragungs-Systeme (FACTS: Flexible Alternating
Current Transmission Systems) oder auch die HGÜ (Hochspannungs-Gleichstrom-Übertragung) beherrscht werden. Die neuen, auf leistungselektronischen Bauelementen basierenden
Technologien bieten ein großes Problemlösungspotential und
Vorteile im Vergleich zu konventioneller Drehstromtechnik.
Während die HGÜ-Verbindung dem Stromtransport über größere Entfernungen und der Kopplung asynchroner Netze dient,
regeln FACTS die Netzspannung und den Lastfluss im Netz.
Diese Techniken sind bereits verfügbar, aber in Deutschland
noch nicht breit zur Anwendung gekommen. Die Gefahr möglicher Schwingungs- und Spannungsprobleme in Drehstromnetzen aufgrund der in den Netz-Randzonen konzentrierter
Windkraft-Einspeisung kann durch die HGÜ besser beherrscht
werden.
H2-Speicher sind durch Elektrolyse und Brennstoffzelle eine
denkbare Lösung, jedoch mit einem heutigen Wirkungsgrad
von kaum mehr als 50 % nicht sehr wirtschaftlich. Druckluftspeicher, Schwungradspeicher und Supraleiter sind weitere
Optionen, bei denen weitere Entwicklungsarbeiten anstehen.
8 • Erzeugung und Speicherbewirtschaftung
Die bisher rund 90 % sehr zuverlässige Erzeugung aus thermischen Kraftwerken sind zu einem wesentlichen Teil und
nach und nach durch regenerative Quellen zu ersetzen. Keinesfalls soll auf die Zuverlässigkeit thermischer Kraftwerke
komplett verzichtet werden. Allerdings sollen die Großkraftwerke, deren Abwärme an den Standorten nicht nutzbar ist,
mehr und mehr durch kleinere Einheiten in Kraftwärmekopplung ersetzt werden. Dadurch steigt der Wirkungsgrad
von bisher 40 % auf über 80 %. Allerdings sind Investitionen in
Fernwärmenetze notwendig. Eines ist völlig klar: Der durch
regenerative Quellen substituierte Teil ist wetterabhängig
nicht immer verfügbar, einzelne Windparks zeitweise überhaupt nicht. Es ist zu untersuchen, welche Verfügbarkeiten in
der europäischen, großräumigen Durchmischung entstehen,
7 • μ-Grids
wie genau diese prognostizierbar sind und welche Transporte
μ-Grids sind Kern der künftigen Lösung. Sie sind virtuelle zu- sinnvoll sind. Es stellt sich auch die Frage, mit welchen lokalen
sammengefasste Netzbereiche, meist Hoch- oder Mittelspan- Speichern eine Teilverfügbarkeit über 24 Stunden erreichbar
nungs-Netze, die über eigene dezentrale Erzeugungen, Lasten ist. Schließlich ist die Frage zu klären, welche Überkapazität
und Speicher verfügen. Ein typisches μ-Grid bildet das bishe- an regenerativer Erzeugung zu installieren ist, damit im Zurige Stadtnetz einer mittelgroßen Stadt. Ein Management des sammenhang mit Speichern im Erzeugungsmix eine hohe
virtuellen Gebietes hat das Ziel, den Bezug oder die Abgabe Versorgungszuverlässigkeit gewährleistet ist. Prognose und
der Leistung zum überlagerten Drehstromnetz DST nach Speicherbewirtschaftung sind hier neuartige Aufgaben.
einem festen Fahrplan verlässlich zu gestalten. Je nach Gegebenheiten des Netzes mit (steuerbaren) Lasten, Erzeugungen, 9 • Lasten
lokalen Speichern usw. kann der Fahrplan überwiegend spei- Die Lasten entstehen durch den Verbrauch der Haushalte, Insend oder verbrauchend gestaltet sein. Wichtig ist, dass der dustrie und durch weitere Stromabnehmer. Sie sind den virFahrplan verlässlich eingehalten wird, siehe Abb.3. Lokale tuellen Teilnetzen, den μ-Grids zugeordnet und müssen entSpeicher sollen unvorhergesehene Ausfälle netzinterner Er- sprechend der Kundenmischung quantifiziert werden. Der
zeugungen und Lastspitzen ausgleichen.
Lastverlauf ist genau zu prognostizieren und mit den ErzeuAn dieser Stelle ist noch viel Entwicklungsarbeit zu leisten: gungsverfügbarkeiten und Speicherreserven im μ-Grid abzuBatteriespeicher sind teuer, großvolumig und die Lebens- gleichen. Ziel ist ein definierter Fahrplanbezug bzw. die Abgabe
dauer ist recht begrenzt. Ihr Wirkungsgrad liegt bei gut 80 %. zum Übertragungsnetz. Ein neuer Aspekt taucht auf: Welche
36
08_hda_querschnitt_gesamt.indb 36
18.03.2008 16:08:05 Uhr
μ-Grids FACHBEREICH ELEKTROTECHNIK UND INFORMATIONSTECHNIK
Effekte sind durch dynamische Tarife auf das Kundenverhalten zu erzielen? Bei Engpässen könnten höhere Tarife zur Zurückhaltung im Verbrauch anregen und bei Überschuss zum
Gegenteil anreizen. Im Grunde ist es die Weiterentwicklung
der „Nachtstromtarife“. Der momentan gültige Tarif könnte
am häuslichen Display abgelesen werden. Voraussetzung für
die dynamischen Tarife sind Informationsverbindungen an die
Verbrauchserfassung zu den Endkunden und die digitale Verbrauchserfassung. Diese Aufgaben lassen auch die Wärmespeicherheizungen in neuem Licht erscheinen, denn sie sind
in besonderer Weise geeignet, die Last in Zeiten hoher Einspeiseleistung auch abzunehmen. Auch die Produzenten von
Haushaltsgeräten wie Waschmaschinen usw. sind gefordert,
um beispielsweise Geräte mit zwei Startknöpfen „Sofortstart“
und „Start bei Billigtarif“ anzubieten. Schließlich sind bei den
temperaturgeregelten Geräten noch Speicherpotentiale (Salzwasser-Phasenübergang) zur Temperaturhaltung erschließbar.
10 • Intelligenz durch Leittechnik
Die „Intelligenz“ der künftigen Stromversorgungsstruktur
wird in stark steigendem Maße durch den Einsatz von elektronischen sowie kommunikations- und leittechnischen Komponenten und Systemen geprägt sein. Generell gilt, dass die
Evolution zum μ-Grid ein Paradigmenwechsel bedeutet: Aus
der heutigen statischen Konzeption der Infrastruktur und einer Nutzung „wie gebaut“ hin zu einer dynamisch sich anpassenden „lebendigen“ Infrastruktur mit einem aktiven Management des Betriebes. Betriebsmanagement ist nur möglich,
wenn ausreichend Daten aus dem Prozess in einer Leitstelle
aktuell verfügbar sind. Bestehende Fernwirksysteme und
die Netzleittechnik leisten bereits viel in dieser Richtung. Die
neuen, privaten Dienste wie GPRS sind gut geeignet, fehlende
Daten auch aus abgelegenen Stationen zu übertragen. Die
wachsende Intelligenz der Netze wird in zwei Netzebenen
stattfinden, in der lokalen Ebene der μ-Grids (Überwachung
des Nahbereiches) und in der höchsten Ebene, der UCTE-Ebene (Überwachung des Fernbereiches).
11 • Nah- und Weitbereichsüberwachung in Leitstellen
Die moderne Netzleittechnik wird künftig eine größere Anzahl
an Informationen erfassen und für das Bedienpersonal zur
schnellen Verarbeitung aufbereiten, als dies in den Systemen
der Vergangenheit der Fall war. Leitstellen gibt es seit über 50
Jahren, in der Bundesrepublik etwa 800, die seit ca. 1970 auch
computergestützt arbeiten. Noch heute gilt oft das Prinzip des
„Information Hiding“ und die netzinternen Daten, die auch nach
außen wirken können, werden kaum freiwillig weitergegeben.
Selbst aus den unmittelbaren Partnernetzen werden die aktuellen Daten nicht automatisch zur Verfügung gestellt. Dabei
bildet der gelegentliche telefonische Kontakt zwischen den
Leitstellen bei ganz wichtigen Umschaltungen die Ausnahme, die gewissermaßen die Regel bestätigt. Das künftige Ziel
muss eine automatisierte und europaweite Verfügbarkeit von
relevanten Betriebsdaten sein. Dies ist zur Vermeidung von
kritischen Betriebszuständen in der neuen Struktur notwendig, beispielsweise um die Speicherzustände bzw. Potentiale
zur Lastführung systemweit zu erkennen und damit Engpässe
frühzeitig zu minimieren.
Die Nahbereichsüberwachung ist die Überwachung der μ-Grids
selbst mit dem täglichen operativen Geschäft der Lastverteilung und Steuerung sowie die Überwachung der unmittelbaren
Rand-Schaltanlagen und die Stati der unmittelbar benachbarten μ-Grids.
Die Weitbereichsüberwachung (mit Schutz- und Leittechnik)
dient einer sicheren und effizienten Netz- und Betriebsführung
großer Verbundnetze national und europaweit. Um ein Frühwarnsystem gegen Energiemangel und Netz-Instabilitäten bereitzustellen, ist ein europaweiter online Datenaustausch und
die Überwachung in einer zentralen Leitstelle, hier UCTE-Leitstelle genannt, erforderlich. Die Früherkennung eventueller
System-Instabilitäten wegen Leistungsdefizite, Spannungsoder Frequenzabweichungen wird helfen, großflächige Stromausfälle zu vermeiden. Im Fehlerfall eines Subnetzes stellt
die Fernbereichsüberwachung eine schnelle und genaue Information allen anderen Leitstellen zur Verfügung, die darauf
systemstabilisierend reagieren können. Mit einem weiträumigen Informationsaustausch und zentraler Auswertung wird
37
08_hda_querschnitt_gesamt.indb 37
18.03.2008 16:08:06 Uhr
QUERSCHNITT 22
Lasten (MW)
700
600
500
400
300
200
100
0
0
2
4
6
8
10
12
14
16
18
20
22
24
Zeit (h)
Abbildung 4 • 24 h-Prognose eines μ-Grids, Lastengruppen
( ) Summe, ( ) Industrie, ( ) Haushalte, ( ) Heizungen
ein stabilerer Systembetrieb auch während Störungen oder in
Engpasssituationen ermöglicht. Die bestehenden Netzregelungen bleiben erhalten, sie werden insofern ertüchtigt, dass
die Verteilfaktoren und Regeleingriffe dynamisch aus der Situation heraus berechnet und per Download an die jeweils teilnehmenden Regelkraftwerke gesendet werden. Zudem gibt es
eine neue Regelkomponente, die Lasten. Diese Lasteingriffe
werden parallel ausgeführt.
Für unternehmerische Partikulärinteressen ist in der UCTELeitstelle allerdings kein Platz, daher ist diese Aufgabe durch
eine neutrale Stelle zu bearbeiten sein. Sie steuert den Lastfluss auf der HGÜ und verwaltet die Regelenergie.
12 • Energieeffizienz auf der MS- und NS-Verteilnetzebene
Die EU-Kommission hat im „Aktionsplan für Energieeffizienz“
im Frühjahr 2006 die Einschätzung getroffen, dass in der EU
ein Energieeinsparungspotential von rund 20 Prozent existiert.
Um dieses Potential bis zum Jahr 2020 zu realisieren, sieht der
„Aktionsplan für Energieeffizienz“ der EU-Kommission unter
anderem die Förderung des Ausbaus von dezentralen Kapazitäten zur gleichzeitigen Erzeugung von Strom, Wärme und
Kälte unterhalb der 20 MW-Schwelle vor. Tatsache ist, dass
thermische Kraftwerke zwischen 45 % bis 65 % der erzeugten
Wärme ungenutzt in die Umwelt abgeben, die Kraft-WärmeTechnik ermöglicht Wirkungsgrade um 90 %. Heute werden
nur ca. 13 % des verbrauchten Stroms in einem kombinierten
Kraft-Wärme-Prozess (KWK) erzeugt. Die Förderung einer
mehr verbrauchsnahen Erzeugung mit dieser kombinierten
KWK-Technologie kann in besonderer Weise helfen, die C02Thematik zu lösen. Leider ist die KWK-Förderung ausgelaufen
und die Novellierung steht noch aus.
13 • Dezentrales Energiemanagement
Ein dezentrales Energiemanagement bezieht im Rahmen eines
μ-Grids (virtuellen Bilanzkreises) typische dezentrale Erzeugungsanlagen wie Kraft-Wärme-Anlagen (erneuerbar /konventionell) im Grundlastbetrieb ebenso ein wie fluktuierende
Erzeugungstechnologien (Wind /Photovoltaik) und lokale, dezentrale Speicher ein. Da Elektrizität nicht im Netz gespeichert
werden kann, kommen Speicher in Form von Wasser, Druckluft, Batterie, Wärme, Kälte oder H2-Speicher in Frage.
Der externe Strom-Bezug oder /und die Lieferung nach extern
aus dem Bilanzkreis des μ-Grids wird durch Fahrpläne festgelegt. Die Auswertung aller Parameter einschließlich der beeinflussbaren und nicht beeinflussbaren Last führt zur Erstellung
eines Fahrplans (Transfer-Profils) zum umgebenden Netz. Die
„Intelligenz“ des dezentralen Energiemanagementsystems
steckt in der leittechnischen Beherrschung der Komplexität
aus unterschiedlich beeinflussbaren Erzeugungsanlagen und
dem optimierten, auch teilweise steuerbaren Lastbedarf.
Das Ziel ist die Vermeidung von ineffizienten Last- und Erzeugungsspitzen durch internen Ausgleich im μ-Grid und damit
die Vermeidung der Vorhaltung entsprechend großer Reserveleistungen im Gesamtsystem. In Abb. 6 ist der Speicherinhalt eines μ-Grids über 24 Stunden des Tages simuliert, wenn
der Lastverlauf (Abb. 4) und der Einspeiseverlauf (Abb. 5) besteht.
Wenn der lokale Speicher in Gefahr ist leer zu werden, können
mit operativen Eingriffen innerhalb des μ-Grids Lasten abgeschaltet oder über die Spannung geführt werden. Rechtzeitig
kann über die Prognosen erkannt werden, ob der im Beispiel
konstant angenommene Fahrplan verlassen wird und Reserveleistung erforderlich ist.
Das Beispiel zeigt allerdings, dass mit hier ca. 30 % Anteil regenerativer Energie ein relativ großer Speicher erforderlich
ist, wenn ein konstanter Fahrplanwert zum Verbund eingehalten werden soll. Der Speicher vermindert sich deutlich für eine
Bezugskurve, die dem prognostizierten Leistungsdefizit der
internen Erzeugungen Rechnung trägt.
14 • Zusammenfassung
Die heutige Struktur der Stromversorgung in Deutschland und
Europa ist den kommenden Anforderungen nicht mehr gewachsen. Zur Realisierung der Energieeffizienzziele der Europäischen Union (20 % oder mehr Reduzierung der CO2-Emissionen bis 2020) und des umweltpolitisch motivierten Ausbaus
der erneuerbaren Energien (20 % oder mehr Anteil an der
Stromversorgung bis zum Jahr 2020) machen einen Wechsel
38
08_hda_querschnitt_gesamt.indb 38
18.03.2008 16:08:06 Uhr
μ-Grids FACHBEREICH ELEKTROTECHNIK UND INFORMATIONSTECHNIK
Speicher (MW)
Erzeugersumme (MW)
700
700
600
600
500
500
400
400
300
300
200
200
100
100
0
0
0
2
4
6
8
10
12
14
16
18
20
22
24
0
2
4
6
8
10
12
14
16
18
20
22
24
Zeit (h)
Zeit (h)
Abbildung 5 • 24 h- Prognose eines μ-Grids, Erzeugungsgruppen
( ) Summe, ( ) Windkraft, ( ) Photovoltaik, ( ) Biogas, ( ) Bezug vom Verbund
Abbildung 6 • Speicherinhalt
vom passiven zum aktiven, intelligenten Stromversorgungsnetz notwendig. Dabei gilt es, die bestehenden Netze im Sinne
der μ-Grids zu transformieren und zu ergänzen sowie ein intelligentes Regelungssystem einzusetzen, das einen möglichst
energieeffizienten Ausgleich zwischen stark schwankenden
Lastanforderungen und ebenfalls fluktuierenden Erzeugungskapazitäten erreicht. Stadtwerke sind dafür prinzipiell gut geeignet. Hier ist verstärkt auch der Einsatz von kommunikations-,
leit- und regelungstechnischen Komponenten erforderlich.
Für den künftig zunehmenden Transport großer elektrischer
Leistungen über lange Strecken und für die Ausweitung lastferner Erzeugungskapazitäten werden leistungselektronische
Komponenten zur schnellen Steuerung des Lastflusses
(FACTS) und eine europaweite HGÜ-Schiene zur Erhöhung von
Übertragungskapazitäten und zur Verbesserung der Stabilität
benötigt. Zur Früherkennung möglicher Instabilitäten wegen
Spannungs-, Frequenz- oder Überlastproblemen ist eine Weitbereichsüberwachung im komplexen Stromverbundnetz
(UCTE) hilfreich, um Netzstörungen zu erkennen und großflächige Ausfälle zu vermeiden, also eine UCTE-Leitstelle, die
ihre Arbeit für die Netzstabilisierung auf den offenen Datenaustausch zwischen den einzelnen Netzgebieten abstützt.
Die Hochschule Darmstadt kooperiert mit dem regionalen
Stromversorger und Leitsystemherstellern in mehreren Projekten, beispielsweise für die Entwicklung von Planungs- und
Verifikationswerkzeugen zur sicheren Strukturierung der künftigen Netze und zur Dimensionierung der Netzkomponenten.
Parallel dazu wird der Netz-Trainingssimulator der Hochschule Darmstadt für Stromnetze auf die künftigen Aufgaben vorbereitet [6-9]. Diese Ergebnisse werden helfen, dass die
Transformation der Stromversorgung in Hinblick auf eine sichere und umweltfreundliche Energieversorgung gelingt.
Literaturhinweise •
1 http://www.bdew.de/bdew.nsf/ID/DE_Home
2 http://www.bundesnetzagentur.de/media/archive/12385.pdf
3 Dieter Metz u.a., „Netzbetrieb im liberalisierten Markt –
Eine Markstudie“, FH-Darmstadt, 2001
4 Dieter Metz and Rolf Schnell, „Dynamisches Training im
Netzbetrieb mit Stategieoptimierungen für den liberalisierten Strommarkt“, 7. Symposium „Energieinnovation in
Europa“, OEV, 2002 Graz, ISBN 3-85133-027-7
5 http://www.fbe.fh-darmstadt.de/forschung/netztrain/
default.htm, „Ein dynamischer Netz-Trainingssimulator
für den Betrieb elektrischer Energienetze“, D. Metz und M.
Anthes
6 J. Schlabbach und D. Metz, „Netzsystemtechnik“, 2005
Buch mit CD erschienen im VDE-Verlag
ISBN 978-3-8007-2821-3 und -4
7 Netzleittechnik : www.hereschwerke.de
8 Aus- und Weiterbildung im VDEW, www.age-seminare.de
9 Aus- und Weiterbildung für elektrische Netze und Netztraining: www.seminare-elektrische-anlagen.de
Kurzbiografien •
Prof. Dr.-Ing. Dieter Metz, VDE, Jahrgang 1948. Studium der
Elektrotechnik an der Technischen Universität in Darmstadt,
Promotion zum Dr.-Ing. an der RWTH Aachen 1979. Industrietätigkeit auf den Gebieten Softwareentwicklung, Netzleittechnik und Netztrainingssysteme. Seit 1986 Professor an der
Hochschule Darmstadt im Fachbereich Elektrotechnik und
Informationstechnik. Leiter des h_da Netztrainingszentrums,
Projektleiter nationaler und internationaler Entwicklungskooperationen.
M.Sc., Dipl.-Ing.(FH) Thorsten Fiedler, Jahrgang 1980, Nachwuchsautor. Studium der Elektrotechnik im Diplom- und Masterstudiengang der Hochschule Darmstadt. Seit 2007 Doktorand am Fachbereich Energietechnik der Universität Craiova
(Rumänien) in Kooperation mit der Hochschule Darmstadt.
Freier Mitarbeiter der OHP Automation Systems GmbH Rodgau, befasst mit der Weiterentwicklung von Leitsystemen.
39
08_hda_querschnitt_gesamt.indb 39
18.03.2008 16:08:07 Uhr
QUERSCHNITT 22
Abbildung 12 •• Auswahl
Das jordanisch-syrische
von Gimmicks aus
Hochland
verschiedenen
mit der Kinderzeitschriften
antiken Fernwasserleitung.
im Winter 2006 /2007 (Siehe auch Seite 48 und 51)
40
08_hda_querschnitt_gesamt.indb 40
18.03.2008 16:08:08 Uhr
Gimme the Gimmicks FACHBEREICH GESELLSCHAFTSWISSENSCHAFTEN UND SOZIALE ARBEIT
GIMME THE GIMMICKS
WERBUNG IN UND FÜR KINDERUND JUGENDZEITSCHRIFTEN
Autoren •
Dipl.-Soz. Bettina von Römer und Prof. Dr. Bernd Steffensen
Kinder und Jugendliche stellen für Hersteller und Handel in verschiedenen Produktsparten eine kaufkräftige und wichtige Klientel dar: Kaufkräftig, da die Gruppe der 6- bis 13-Jährigen jährlich über
ein Finanzvolumen von ca. 5,9 Mrd. € verfügen kann (Egmont Ehapa Verlag 2006). Wichtig, weil Untersuchungen zeigen, dass die meisten Jugendlichen bis zum Alter von 17 Jahren ein ausgeprägtes
Markenbewusstsein entwickelt und „ihre Marke“ bereits gefunden haben (BRAVO Faktor Jugend 8 2005).
Angesichts dieser zwei Aspekte wird verständlich, warum gerade Kinder und Jugendliche Adressaten
vielfältiger Werbebotschaften sind.
1 • Das Vorhaben
In diesem Beitrag berichten wir über eine Studie, die aus Mitteln der Sonderforschungsgruppe Institutionenanalyse (sofia)
finanziert wurde. sofia ist organisatorisch im Studienbereich
Sozial- und Kulturwissenschaften am Fachbereich Gesellschaftswissenschaften und Soziale Arbeit angesiedelt. In dem
Projekt wurden 109 Ausgaben von 19 verschiedenen Kinderund Jugendzeitschriften, die im Zeitraum November 2006 bis
März 2007 erschienen sind, in zwei Hinsichten analysiert:
1 • Umfang und Intensität der Werbemaßnahmen in den einzelnen Heften.
2 • Zahl und Art der Werbeverstöße, die im Werbeaufkommen
festgestellt werden konnten.
Bei der nun vorliegenden Studie (von Römer /Steffensen 2007)
handelt es sich um eine Follow-up-Studie zu zwei Vorgängern,
die in den Jahren 1999 und 2002 von Cornelia Becker (ebenfalls aus sofia-Mitteln finanziert) durchgeführt wurden. Wurde
in den beiden Vorgängerstudien das Zusammenspiel von Werbemaßnahmen in Kinder- und Jugendzeitschriften mit dem
flankierenden Werbeangebot auf diversen Fernsehkanälen
betrachtet, so liegt in der nun vorliegenden Analyse der Fokus
auf der Kombination von Werbung in Zeitschriften mit Werbemaßnahmen im Internet.
Im Anschluss an eine holzschnittartige Darstellung der auf
Kinder und Jugendliche bezogenen Werbemaßnahmen in den
Medien Fernsehen, Kinderzeitschriften und Internet, werden
die wichtigsten Ergebnisse der Zeitschriftenanalyse dargestellt. Abschließend stellen wir einige weitere Überlegungen
vor, die einerseits Veränderungen im Konsumverhalten von
Kindern und Jugendlichen, andererseits die sich ändernde
Form der Einflussnahme durch Werbung auf die Gruppe der
jungen Konsumenten verdeutlichen.
2 • Fernsehwerbung mit der Zielgruppe Kinder
Grundsätzlich hat sich in der vergangenen Dekade der Trend
verstärkt und stabilisiert, dass bereits Vorschulkinder gezielt
in den werbenden Blick der Produkthersteller genommen
werden. Insbesondere die Hersteller von Kinderprodukten in41
08_hda_querschnitt_gesamt.indb 41
18.03.2008 16:08:14 Uhr
QUERSCHNITT 22
itiieren in Zeitschriften, Fernsehprogrammen und mit Internetauftritten in den letzten Jahren eine sich immer stärker verzahnende Medienflut, die die Erlebnis- und Spielbedürfnisse
von Kindern mit vielfältigen, sich gegenseitig intensivierenden
Anreizen anspricht. Ein kurzer Blick auf die Sehgewohnheiten
von Kindern und Jugendlichen zeigt für die letzten Jahre, dass
sich kaum Veränderungen in Bezug auf die zeitliche Dauer
des Fernsehkonsums ergeben haben (vgl. Feierabend /Klingler 2006: 139). Auffallend ist jedoch, dass ein großer Anteil der
jüngeren Kinder vor allem jene Sender frequentiert, die sich
durch einen hohen Werbeanteil in ihrem Programmangebot
auszeichnen. Heffler und Möbus (2006: 319) weisen für Super
RTL im Jahr 2005 eine Werbezeit von 125.370 Minuten aus, was
einem Programmanteil von 23,9 % entspricht. RTL II liegt bei
einem Werbeanteil von knapp 21 %, RTL, SAT1 und ProSieben
liegen zwischen 14,5 % und 15 % (Angaben aus der Quelle berechnet).
Studien zeigen zudem immer wieder, dass Kinder gerne Fernsehwerbung ansehen, da die enthaltenen altersspezifisch aufgebauten kurzen Geschichten für sie einen hohen Unterhaltungswert haben und die tendenziell noch kurze Aufmerksamkeitsspanne nicht zu stark strapazieren.
3 • Werbung in Kinderzeitschriften
Nach Angaben des Verbandes Deutscher Zeitschriftenverleger
war für die Printmedien das Jahr 2006 sehr erfolgreich, da die
Anzeigenumsätze insgesamt um 3,6 % auf knapp 1.856 Mrd. €
gestiegen sind (VDZ 2007). Hieraus ergibt sich für 2005 ein Netto-Werbeumsatz im Zeitschriftenbereich von etwa 1,79 Mrd. €,
von denen laut Heffler /Möbus (2006: 318) etwa 70 Mio. € (Brutto) auf Jugendzeitschriften entfallen. Eine Vorstellung davon,
welche Kosten für Werbeanzeigen in den verschiedenen Publikationsmedien für Kinder und Jugendliche entstehen, vermitteln die „Mediendaten 2007“ der Egmont Ehapa Verlag GmbH.
Bei einer wöchentlichen Auflage von ca. 375.000 Exemplaren,
kostet eine ganzseitige Werbeanzeige im Micky Maus Magazin
gemäß Preisliste 35 (Stand: 01.01.2007) 14.900,- €. In Benjamin
Blümchen (Auflage knapp 70.000 Exemplare) kostet die ganzseitige Anzeige gemäß Preisliste 11 (Stand: 01.01.2007) 5.400,- €
(Egmont Ehapa Verlag 2007).
Betrachtet man die Werbeanzeigen in den 109 Kinderzeitschriften (siehe Tabelle 1), so ist als erstes festzustellen, dass
die Werbeintensität über alle Zeitschriften betrachtet im Vergleich zu den Auswertungen von Becker (1999 und 2002) nicht
zugenommen hat. Bei dem Vergleich ist allerdings zu berücksichtigen, dass sich der Untersuchungszeitraum von Juli bis
Anteil der Werbung in %
am Heftumfang
Titel
1998
2001
2006 /07
Barbie
18
27
28
Benjamin Blümchen
22
27
20
Bibi Blocksberg
19
25
15
---
---
16
10
24
15
8
19
19
Bussi Bär
34
24
22
Die Maus
20
20
18
Die Schlümpfe
Schlumpf Mag
24
17
10
Disney Prinzessin
---
---
24
Fix & Foxi
---
---
25
Geolino
---
---
18
Lillebi
---
---
13
Micky Maus
22
20
23
Mosaik
12
26
20
Philipp
7
13
8
Prinzessin Lillifee
---
---
18
Wendy
---
---
16
9
32
21
Bob der Baumeister
Biene Maja
Bummi
Winnie Puuh
Tabelle 1 • Relative Häufigkeit von Werbung in Kinderzeitschriften (Daten für
1998 und 2001 aus Becker 2002: 8)
42
08_hda_querschnitt_gesamt.indb 42
18.03.2008 16:08:15 Uhr
Gimme the Gimmicks FACHBEREICH GESELLSCHAFTSWISSENSCHAFTEN UND SOZIALE ARBEIT
Anzahl
Werbeanzeigen
Produktgruppe
1 Spielsachen und Sportartikel
in %
81
in % ohne
12/13 (n=522)
8,6
15,5
2 Süßigkeiten
31
3,3
5,9
3 Essen und Trinken
60
6,4
11,5
4 Kleidung und Accessoires
24
2,5
4,6
5 Merchandising-Produkte
31
3,3
5,9
6 PC- und Konsolenspiele
58
6,1
11,1
7 Fernsehen, DVD, CD, MC
99
10,5
19,0
8 Kino, Veranstaltungen
25
2,6
4,8
9 Ferien /Urlaub /Reisen
55
5,8
10,5
10 Schulbedarf
9
0,9
1,7
49
5,2
9,4
12 Zeitschriften /Bücher (Eigenwerbung des
Verlages: nächstes Heft, Abonnement etc.)
320
33,9
13 Gewinnspiele (Preise zumeist von
verschiedenen Produktanbietern)
103
10,9
945
100,0
11 Zeitschriften /Bücher (andere Anbieter)
Summe
99,9
Tabelle 2 • Beworbene Produktgruppen
Dezember in den Untersuchungen von Becker auf die Zeit
November bis März in der vorliegenden Untersuchung verschoben hat. Insgesamt schlägt sich diese Verschiebung in
einem durchschnittlich etwas geringeren Werbevolumen nieder. Auch für andere Werbeträger zeigen Heffler und Möbus
(2006: 318), dass nach einer sehr werbeintensiven Phase von
September bis Dezember die Zeit von Januar bis März durch
anfänglich niedrige aber konstant steigende monatliche Umsätze gekennzeichnet ist. Die Monate nach Ostern markieren
bis in die Zeit Juli /August ein zweites, weniger stark ausgeprägtes „Jahrestief“.
Insgesamt betrachtet lässt sich in den Analyseergebnissen
kein klarer Trend erkennen. Starke Wechsel im Anzeigenvolumen der verschiedenen Zeitschriftenausgaben resultieren
häufig weniger aus einem deutlichen Auf und Ab des Werbevolumens im Jahresverlauf als vielmehr aus der Tatsache, dass
einzelne Werbemaßnahmen in einzelnen Heften umfänglich
aufgemacht sind. Solche Aktionen schlagen sich angesichts
der eher kleinen Heftumfänge von Kinder- und Jugendzeitschriften schnell in vergleichsweise großen Werbeanteilen an
einzelnen Ausgaben nieder.
Insgesamt fanden sich in den 109 Zeitschriften 945 Werbeanzeigen, wobei es in manchen Fällen schwierig zu entscheiden
ist, ob es sich noch um einen redaktionellen Beitrag oder schon
um eine Werbeanzeige handelt. Dies bezieht sich vor allem auf
Informationen zu Medienangeboten wie (Hör-) Bücher oder
auch Computerspiele, die einerseits vorgestellt, zugleich
aber auch getestet und mit Preisangaben versehen beworben
werden. Hier fehlt es vielfach an einer klaren und eindeutigen
Trennung zwischen redaktionellen und werbenden Anteilen. Zu
bedenken ist dabei, dass die Probleme, die sich bei der Analyse der Zeitschriften für die erwachsenen Bearbeiter der Studie
ergaben, für Kinder im Kindergarten- oder Grundschulalter
dazu führen, dass für sie Werbung als solche kaum oder gar
nicht zu erkennen ist.
In Tabelle 2 ist zusammengestellt, für welche Produktgruppen geworben wurde. Bemerkenswert ist, dass ein Drittel der
Anzeigen Eigenwerbung darstellt, mit denen die nächste Ausgabe der vorliegenden Kinderzeitschrift, ein Abonnement oder
ein anderes Angebot des Verlages beworben wird. Betrachtet
man die letzte Spalte der Tabelle so fallen vor allem die Werbungen für Fernsehsendungen auf, die an der Produktgruppe
43
08_hda_querschnitt_gesamt.indb 43
18.03.2008 16:08:16 Uhr
QUERSCHNITT 22
7 den weitaus größten Anteil haben. Auch hierin ist ein Indiz
für die zunehmende Verknüpfung der verschiedenen Medien
zu sehen, die immer stärker wechselseitig auf sich verweisen
und so einen Werbeverbund mit sich gegenseitig verstärkenden Werbebotschaften erzeugen.
4 • Werbung für Kinderprodukte im Internet
In etwa einem Drittel der Werbeanzeigen in den analysierten
Kinder- und Jugendzeitschriften finden sich mehr oder weniger offensichtliche Verweise auf die Internetseiten der Anbieter. Auffallend beim Aufsuchen dieser Seiten ist, dass in vielen
Fällen die Anbieter von Informationen und Werbung, zusätzlich einen Onlineshop betreiben und ein zum Teil umfangreiches Angebot an Computerspielen offerieren. Dies gilt einerseits besonders für jene Firmen, die gezielt „Kinderprodukte“
anbieten (etwa www.fruchttiger.de, www.ueberraschungseier.
de oder www.ehrmann.de, etc), andererseits für Werbende,
die sich auf Unterhaltungsangebote für Kinder und Jugendliche spezialisiert haben (vgl. z.B. www.jetixTV.de, www.disney
channel.de, www.toggo.de, etc.). Je ein Beispiel ist als Screenshot eingefügt.
In vielen Fällen erfordern Club-Mitgliedschaften eine Registrierung, die den werbenden Firmen einen zusätzlichen Kanal für Online-Angebote und Werbebotschaften eröffnet. So
besteht die Möglichkeit sich in High Score-Listen eintragen
zu können, was bei Kindern ausgesprochen beliebt ist, erfüllt
es doch den Wunsch, sich mit anderen kompetitiv zu messen.
Zugleich fördert es die Bereitschaft, die jeweilige Internetseite erneut aufzurufen, um die eigene Bestmarke nach oben zu
treiben und einige Plätze im Ranking gut zu machen.
Gerade in der engen Verknüpfung zwischen der Werbung im
Printmedium und der Möglichkeit, auf den dazu gehörenden
Internetseiten aus einem zum Teil umfangreichen Angebot an
Computerspielen auswählen zu können, lässt sich ein Ausnutzen der Spielleidenschaft von Kindern erkennen. Es ist gerade
diese Spielleidenschaft, die Kinder zum Besuch der Internetangebote von Produktanbietern motiviert. Beim Spiel kommen
immer auch die beworbenen Produkte in den Blick. Vorteilhaft
für die Werbeintention und damit für den Verkaufserfolg des
Produkts ist, dass das Kind über die Spieloptionen ein positives Bild und einen dementsprechenden Erfahrungshorizont assoziiert. Dieser Ansatz gewinnt angesichts gesättigter
Märkte, auf denen sich die einzelnen Produkte untereinander
kaum noch gegeneinander abheben, an Bedeutung, da es vielfach nur aufgrund des Zusatznutzens gelingt, ein Interesse für
Abbildung 2 • Screenshot aus www.fruchttiger.de (Ausschnitt; 13. 01. 2008)
Abbildung 3 • Screenshot aus www.toggolino.de (Ausschnitt; 29. 05. 2007)
das Produkt zu gewinnen (vgl. Kroeber-Riel /Esch 2004: 24).
Bei den noch heranwachsenden Konsumenten kommt Werbung eine besondere Bedeutung zu. So zeigt die inzwischen
zum achten Mal durchgeführte Studie „BRAVO Faktor Jugend“,
dass sich das Markenbewusstsein in jungen Jahren herausbildet. Im Produktbereich Süßigkeiten, ein Feld auf dem sich
viele Kinder bereits sehr früh finanziell frei und selbstständig
bewegen können, haben sich im Alter von 12 Jahren schon bei
fast 60 % der für die Studie befragten Kinder und Jugendlichen
eindeutige Markenpräferenzen herausgebildet. Mit einer zeitlichen Verschiebung von vier bis fünf Jahren gilt dies auch für
44
08_hda_querschnitt_gesamt.indb 44
18.03.2008 16:08:16 Uhr
Gimme the Gimmicks FACHBEREICH GESELLSCHAFTSWISSENSCHAFTEN UND SOZIALE ARBEIT
%
100
90
80
70
60
50
40
30
20
10
0
10
11
12
13
14
15
16
17
18
19
20
21
22
Jahre
Abbildung 4 • ( ) Süßigkeiten, ( ) Mode, ( ) Deo, ( ) Gesichtspflege /-reinigung, ( ) Kosmetik, Make-up, ( ) Haarstyling, ( ) Handy, Lesebeispiel: Im Bereich Mode
haben 81 % der Befragten mit 17 Jahren bereits ihre heutigen Marken verwendet. Alle Befragten, n = 524 / Kumulierte Angaben in Prozent (100 % = alle heutigen
Verwender der Marke), *nur Frauen
viele andere Produktbereiche, die für junge Menschen von
Bedeutung sind. Abbildung 4 gibt dieses zentrale Ergebnis der
Studie „BRAVO Faktor Jugend 8“ deutlich wieder. Die grundlegende Aussage der von Zeitschriftenverlagen in Auftrag gegebenen Studie heißt demzufolge dann auch:
• „Die wichtigste Phase ist dabei das Alter zwischen 12 und 17
Jahren – hier verzeichnen alle Marken die stärksten Zugewinne.
• Marken müssen also in diesem Alter präsent sein, um sich
zu bewähren.“ (BRAVO Faktor Jugend 8 2005: 25)
den Vorgängerstudien halten wir es auch bei dieser dritten
Auflage für angebracht, keinen Unterschied zwischen Hörfunkund Fernsehwerbung einerseits sowie Zeitschriftenwerbung
andererseits zu machen. Entsprechende Differenzierungen
und Abgrenzung werden auch deshalb zunehmend weniger plausibel, da die Werbenden – wie ausgeführt – in ihren
Werbestrategien verstärkt auf die Verzahnung verschiedener
Medien setzen. Fernseh-, Print- und Onlinewerbung nehmen
wechselseitig aufeinander Bezug und verstärken sich gegenseitig. Insofern fällt es schwer, ähnlichen Werbebotschaften
mit vergleichbarem Inhalt in den einzelnen Medien ganz unter5 • Werbung und Werberegeln
schiedliche Wirkungen zuzurechnen.
Auf der Homepage des Deutschen Werberates finden sich un- Für die Auswertung der Zeitschriftenwerbung ist zu beachter anderem die noch heute gültigen „Verhaltensregeln des ten, dass die Regeln des Deutschen Werberates allgemein
Deutschen Werberats für die Werbung mit und vor Kindern und interpretationsbedürftig formuliert sind. Dies macht in
in Hörfunk und Fernsehen“ aus dem Jahr 1998. Wie schon bei vielen Fällen eine klare Entscheidung schwierig, ob eine der
45
08_hda_querschnitt_gesamt.indb 45
18.03.2008 16:08:19 Uhr
QUERSCHNITT 22
Werberegel
Kurzfassung des Inhalts der Regel
Nr. 1
Kein Vortrag von Kindern über besondere Vorteile und Eigenarten von Produkten, der nicht den
natürlichen Lebensäußerungen von Kindern entspricht
Nr. 2
Keine direkte Aufforderung zu Kauf oder Konsum
Nr. 3
Keine direkten Aufforderungen, andere zu veranlassen, ein Produkt zu kaufen
Nr. 4
Kein missbräuchliches Ausnutzen des besonderen Vertrauens, welches Kinder bestimmten Personen
entgegenzubringen pflegen
Nr. 5
Aleatorische Werbemittel (z. B. Gratisverlosungen, Preisausschreiben und -rätsel u. ä.) sollen Kinder
nicht irreführen, nicht durch übermäßige Vorteile anlocken, nicht ihre Spielleidenschaft ausnutzen
und nicht anreißerisch belästigen
Nr. 6
Strafbares oder sonstiges Fehlverhalten, durch das Personen gefährdet werden können, soll nicht als
nachahmenswert erscheinen
Tabelle 3 • Werberegeln (vgl. Deutscher Werberat 1998)
Werberegeln verletzt wurde oder (noch) nicht. Vielfach gibt es
eindeutige Fälle, in vielen anderen Fällen ist es jedoch auch
Auslegungssache, ob eine Aufforderung gemäß Werberegel
Nr. 2 direkt oder doch indirekt erfolgt: Muss die Phrase „Kauf
dir“ oder „Hol dir“ in einer Anzeige enthalten sein, damit von
einer direkten Aufforderung zu Kauf oder Konsum gesprochen werden kann? Oder reicht es, wenn die Werbung für die
nächste Zeitschriftenausgabe mit „Deine neue …“ überschrieben ist? Wir sind bei einer bewusst engen Auslegung auf insgesamt 543 Werbeanzeigen (57,5 %) gekommen, in denen gegen mindestens eine der sechs Werberegel verstoßen wurde.
In 105 Fällen wurde bei einer Anzeige ein Verstoß gegen zwei
Werberegeln festgestellt, was 11,1 % der Anzeigen entspricht,
in 2 Fällen wurden unseres Erachtens sogar drei Werberegeln
missachtet. Insgesamt wurden 652 Verstöße gezählt (siehe
Tab. 4). Im Folgenden werden die Befunde zu den Werberegeln
2 und 5 detaillierter dargestellt, die Verstöße gegen die anderen Werberegeln sind aufgrund ihrer geringen Zahl zu vernachlässigen. Betrachtet man zudem die 105 Fälle von „Doppelverstößen“ so handelt es sich meist um eine Kombination
von Verstößen gegen diese beiden Werberegeln.
Werberegel 2: Kinder sollen nicht direkt zu Kauf oder Konsum aufgefordert werden.
Werberegel 2 wird in 192 Fällen (20,3 % aller Anzeigen und
29,4 % aller Verstöße) missachtet. Diese Form des Verstoßes
findet sich in vielen Werbemaßnahmen, die (wie in fast jedem
der untersuchten Hefte zu finden) auf die Inhalte und das Erscheinungsdatum der nachfolgenden Ausgabe verweisen. So
findet sich in den Anzeigen für das Folgeheft der Prinzessin
Lillifee jeweils die Formulierung „Deine nächste Ausgabe
vom Prinzessin Lillifee Magazin“ (Prinzessin Lillifee 1 /2007:
36; 2 /2007: 34; 4 /2007: 36). Ein typischer Fall für den Verstoß
gegen die Werberegel 2 findet sich in der Werbung der Firma
Simba für das Produkt „Arielles Bubble Palace“ (Abbildung 5).
Die benutzte Formulierung „Hol Dir … nach Hause“, enthält eine klar und deutlich ausgesprochene Kaufaufforderung. Dies
ist wohl einer der eindeutigsten Fälle für einen Verstoß, der
sich aber in ähnlicher Form in vielen weiteren Anzeigen findet. Etwa in der Kampagne für Kick-O-Mania der Firma Revell,
Werberegel Nr.
Anzahl
Anteil
Verstöße an
945 Anzeigen in %
in %
Werberegel 1
8
1,2
0,8
Werberegel 2
192
29,4
20,3
Werberegel 3
7
1,1
0,7
Werberegel 4
7
1,1
0,7
Werberegel 5
435
66,7
46,0
3
0,5
0,3
652
100,0
Werberegel 6
Summe
Werbeverstöße
Tabelle 4 • Verstöße gegen die Werberegeln
46
08_hda_querschnitt_gesamt.indb 46
18.03.2008 16:08:20 Uhr
Gimme the Gimmicks FACHBEREICH GESELLSCHAFTSWISSENSCHAFTEN UND SOZIALE ARBEIT
Abbildung 5 • Ausschnitt aus einer Anzeige der Firma Simba für Arielles Bubble
Palace (aus: Bibi Blocksberg 12 /2006: 35)
die für das „Duell der Stars“ wirbt: Zwei Jungen sitzen sich mit
ernsten Minen gegenüber und halten die Nachbildungen von
zwei Fußballstars in der Hand. Links von ihnen sind vier andere Fußballstars als Puppen abgebildet, rechts in drei Bildern
die Funktionen der Puppen dargestellt. Auch in dieser Anzeige
findet sich mit „Holt euch eure Fußballstars …“ eine unverblümte direkte Aufforderung zum Kauf.
Werberegel 5: Aleatorische Werbemittel
Auffallend ist, dass in 46 % der Werbeanzeigen (insgesamt 435
Fälle, die 66,7 % aller Verstöße ausmachen) Gewinnspiele in
kleinerem und größerem Umfang eingefügt sind. Ein typisches
Beispiel für Werbung mit Mitmachaktionen findet sich in der
nachfolgenden Anzeige (Abb. 6). Über die Mitmachgelegenheit
wird der Blick der Kinder an die Anzeige gefesselt, die ansonsten vermutlich eher oberflächlich überflogen wird. Erwachsene – für Kinder liegen die Vergleichszahlen nicht vor – brauchen
zur Erfassung einer bildlastigen Werbeanzeige gerade einmal
1,5 Sekunden (Kroeber-Riel /Esch 2004). In dieser Zeit können
wir etwa 10-15 Worte Text aufnehmen. Die kurze Aufmerksamkeitsspanne impliziert, dass das Produkt gar nicht richtig zur
Kenntnis genommen wird. Die Möglichkeit ein Rätsel oder Quiz
zu lösen, verlängert die Aufmerksamkeitsspanne deutlich und
vermittelt im zumeist sichergestellten Erfolgsfall ein positives
Gefühl. Diese kleinen Elemente dürften zugleich den Effekt haben, dass auch die elterlichen Mitleser einen Blick auf die Rate- oder Suchspiele werfen und damit ebenfalls länger auf der
entsprechenden Seite verweilen, als sie dies den Studien zur
Rezeption von Werbung zu Folge im Normalfall tun würden.
Abbildung 6 • Anzeige für „Fruchttiger“ der Firma Eckes
47
08_hda_querschnitt_gesamt.indb 47
18.03.2008 16:08:20 Uhr
QUERSCHNITT 22
Aus der KidsVerbraucherAnalyse (2006: 44), die federführend
vom Egmont Ehapa Verlag in Auftrag gegeben wird und sich
an die Anzeigenkunden der beteiligten Verlage wendet, geht
hervor, dass Kinder Werbung mit Rätseln und Gewinnspielen
mögen. 71 % der befragten Kinder und Jugendlichen geben an,
dass sie es gut finden, wenn Kinder mitmachen und gewinnen
können, 48 % mögen Werbung mit Quizfragen und Rätseln.
Insofern hat die Gestaltung der entsprechenden Werbemaßnahmen Methode, da die Spielleidenschaft angesprochen und
genutzt werden kann, um die Aufmerksamkeit der jungen
Konsumenten stärker zu binden. Gerade für dieses Mittel zur
Bindung von Aufmerksamkeit sind die Medien Zeitschrift und
Internet in besonderer Weise geeignet. Anders als im Fernsehen ist es möglich, länger zu verweilen bzw. zu den Spielangeboten jederzeit wieder zurückzukommen. Die Spielgelegenheiten sind gewissermaßen das Pendant zu den kurzen und
amüsanten Geschichten, die im Fernsehen die Aufmerksamkeit junger Konsumenten binden, die im Printmedium schwieriger und nur ungelenk bildlich angeboten werden können. Sie
sind besonders geeignet, um Kinder zu fesseln und auf einfache Art und Weise ein Erlebnismarketing für die jungen Kunden zu initiieren.
6 • Kinder, Konsum und Werbung
Das Thema Kinder, Werbung und Konsum hat in den letzten
Jahren in der Literatur eine zunehmende Aufwertung erfahren. Dieses liegt zu einem großen Teil daran, dass Kindheit
heute von Kindern anders gelebt und erfahren wird. So wird in
der Literatur das Konzept der aktiven Kindheit formuliert, das
vor allem auf die vergrößerten Autonomiespielräume abstellt,
die sich bereits bei kleineren Kindern zeigen. Diese stärkere
Selbstständigkeit verändert nicht nur die Beziehung zu den
Eltern, sie tangiert auch das kindliche Konsumverhalten (Aufenanger 2005). Mit Blick auf den Konsum wird heute von der
„kommerziellen Kindheit“ (Oelkers 2004: 3) gesprochen, in der
schon im frühen Kindesalter Konsum und Markenbewusstsein
eine wesentliche Rolle spielen.
Diese Veränderungen treffen mit einem bereits seit etwa 150
Jahren beobachteten Trend zusammen, der als „Akzeleration“ bezeichnet wird. Dieser Begriff hat in eine Vielzahl von
wissenschaftlichen Bereichen Eingang gefunden, die sich mit
Jugendlichen befassen. Anfangs wurde mit dem Begriff vor
allem der Trend beschrieben, dass Nachfolgegenerationen
durchschnittlich eine größere Körpergröße aufweisen, als
ihre Elterngeneration. Dieser Trend der säkularen Akzelera-
tion schlägt sich auch auf den gesamten Verlauf der Pubertät nieder. So zeigt sich, dass das durchschnittliche Menarchealter (Eintritt der ersten Menstruation) von Generation zu
Generation um etwa 10 Monate absinkt. Während es um 1850
durchschnittlich noch bei 17,5 Jahren lag, tritt dieses Ereignis bei heute heranwachsenden Mädchen bereits im Alter von
etwa 12,8 Jahren ein. Bei Jungen lässt sich nur ein geringer
zeitlicher Entwicklungsunterschied aber insgesamt der nahezu identische Entwicklungstrend feststellen (Kahl /Schaffrath
Rossario /Schlaud 2007).
Mit dieser körperlichen „Vorverlagerung“ des Fast-Erwachsenen-Alters ist auch eine auf das Verhalten bezogene größere
Autonomie von Kindern und Jugendlichen zu konstatieren, da
diese immer deutlicher ihre Selbstständigkeit einfordern und
auch in vielen Bereichen umsetzen können. Vollbrecht (2002:
5) spricht in diesem Kontext von „modernen Verhandlungsfamilien“, bei denen der Streit um „Süßigkeiten ja oder nein“,
zu dem Kompromiss „Verzehr einer ‚gesunden’ Schokolade“
führt. Theoretisch ließe sich dies – so Vollbrecht – durch einen
Wettstreit zweier sehr unterschiedlicher Kindheitsprojekte
beschreiben. Während Kindheit lange als pädagogisches Projekt der Erwachsenen (also der Eltern) und damit als zukunftorientiertes Entwicklungs-, Erziehungs- und Bildungsprojekt
verstanden und gelebt wurde, tritt nun das gegenwartsbezogenes Autonomieprojekt der Kinder hierzu immer früher in
Konkurrenz.
Kinder werden besonders von der Werbung frühzeitig als eigenständige Personen wahrgenommen, die sich aktiv und zum
Teil mit großer Vehemenz an der Gestaltung ihres Umfeldes beteiligen (Bickler 2001: 79). Autonomie – also die Freiheit selbst
zu bestimmen, was man tut und konsumiert – beinhaltet immer auch das Risiko, etwas falsch zu machen, wofür man dann
selbst verantwortlich ist. Individualisierung und Wahlfreiheit,
die im Kontext von Überlegungen zu so genannten Bastelbiografien (Beck /Beck-Gernsheim 1993) thematisiert werden,
implizieren nicht nur für Erwachsene, sondern in besonderem
Maße auch für Kinder und Jugendliche das Risiko des Scheiterns. Diese Entwicklung hat für Eltern und Kinder Konsequenzen: Ließ sich vor zwei Generationen mit einen „solange
du die Füße unter meinem Tisch stellst, …“ jeglicher Freiraum
der Nachfolgegeneration bis in das Twen-Alter hinein effektiv
beschneiden, so gerät die Elterngeneration heute bereits ihren
Kleinkindern gegenüber in vielfältige Erklärungsnöte. Auf Seiten der Jugendlichen sind Unsicherheiten und das Bewusstwerden von Risiken die Konsequenz der Freiräume und Auto-
48
08_hda_querschnitt_gesamt.indb 48
18.03.2008 16:08:21 Uhr
Gimme the Gimmicks FACHBEREICH GESELLSCHAFTSWISSENSCHAFTEN UND SOZIALE ARBEIT
nomiespielräume. Schulze schreibt: „Man betrachtet die Welt
als Speisekarte und stellt sich ein optimales Menü zusammen“
(1998: 305). Dies gilt für Erwachsene aber in wachsendem Maße auch für Kinder und Jugendliche, wobei dem Bereich des
Konsums wesentliche Bedeutung zukommt.
Kinder und Jugendliche haben selbst noch kaum eine Vorstellungen davon, wohin die „Reise gehen soll“. Deshalb benötigen
sie in neuen Situationen einen sozialen Kompass, der mögliche
Richtungen weist. Werbung hält für solche Gelegenheiten Anschauungsmaterial bereit, wie man sich in Alltagssituationen
verhalten kann. Sie stellt Skripte zu Verfügung, gewissermaßen Regieanweisungen oder „Drehbücher für Prozesse der
Sozialisation in eigener Regie“ (Hengst nach Bickler 2001: 80).
Richtete sich die Werbung in der Vergangenheit vor allem an
die Eltern, um diese davon zu überzeugen, dass Erwerb und
Gebrauch des beworbenen Produktes dem Wohle des Kindes
dient, so richtet sie sich heute in vielen Fällen an die Kinder
direkt, um diese in ihrem Autonomiestreben zu unterstützen.
Einige Pädagogen sehen es mit Skepsis, dass sich die Werbung
zunehmend aus dem Erziehungsprojekt der Eltern verabschiedet und sich auf die Seite der Kinder schlägt. Werbung bietet
den Kindern und Jugendlichen bei der Umsetzung ihres Autonomieprojektes umfangreiche Hilfestellungen, da sie ihnen
neben den Skripten für die eigene Identitätsfindung zugleich
Argumente an die Hand gibt, mit denen sie den Eltern gegenüber ihre eigenen Produktwünsche durchsetzen können.
Damit kommt die Frage in den Blick, von welchem Alter an Kinder Werbung als solche wahrnehmen und intellektuell bereits
so kompetent sind, um bewusste Empfänger von Werbebotschaften zu sein. Anders formuliert: Wie verläuft die ökonomische Sozialisation? Juristische ist diese Frage mit der Einschränkung der Geschäftsfähigkeit beantwortet. Pädagogisch
wäre zu prüfen, inwieweit bzw. wann Kinder in der Lage sind,
Käufe als Ausdruck ihres Konsumverhaltens auch realistisch
einzuschätzen: Ab welchem Alter verfügen Kinder über die Fähigkeit, die Angemessenheit von Preis und erhaltener Leistung
adäquat abzuwägen? Der Kinder- und Jugendschutz zielt auch
darauf ab, Kinder und Jugendliche davor zu schützen, dass
ihre Unerfahrenheit ausgenutzt wird. Soweit allerdings von
den „kleinen Kunden“ die eigenen Transaktionen nicht wirklich
überblickt werden können, liegt die Vermutung eines entsprechenden Missbrauchs nahe.
Auch wenn sich die Autonomiespielräume von Kindern und Jugendlichen in den letzten Jahren erweitert haben, stellt sich
die Frage, wie kompetent sie im Umgang mit Werbung tatsäch-
lich sind. Reinhold Hedtke (2002: 9) schreibt, dass der Verlauf
der ökonomischen Sozialisation bislang weitgehend unerforscht sei. Es ist bislang ungeklärt, in welchem Alter Kinder
und Jugendliche beginnen, ökonomische Prozesse zu verstehen und zu durchschauen. Die Antwort hierauf ist insofern von
Bedeutung, da von ihr abhängt, wie einzelne Werbemaßnahmen zu bewerten sind. In der vorliegenden dritten Auflage der
Studie wurde ein deutlich größerer Anteil der Werbeanzeigen
als Verstoß – also als den verabschiedeten Werberegeln nicht
entsprechend – bewertet. Dies ist vor allem darauf zurückzuführen, dass die Zahl der Werbemaßnahmen ansteigt, die mit
Gratisverlosungen und Geschenken lockt. Hier geht es immer
darum, dass den jungen Kunden Highlights gratis angeboten
werden, die sie zum Mitmachen animieren oder auch zum Erwerb einer Zeitschrift bewegen sollen.
Die dahinter stehende Debatte wird auch andernorts geführt.
Stellvertretend hierfür ein Text von Barlovic und Clausnitzer
(2005). Ausgangspunkt ihres Textes sind Kritiken an Werbeaktivitäten, die sich auf Kinderprodukte beziehen. Aus ihrer
Sicht, sie sind Geschäftsführender Gesellschafter bzw. Senior
Project Manager der icon-kids & youth international research
GmbH, gibt es vielfältige Gründe, die dafür sprechen, Kinder
mit Werbung anzusprechen. Die sicherlich erfahrenen Jugendforscher, die sich vor allem der Unterstützung der Marketingbemühungen der Produzenten von Kinderprodukten verschrieben haben, betonen, dass sie die Kinder als „autonome
Persönlichkeiten“ ernst nehmen. Sie formulieren dies aber in
einer Form, die dem Leser den Umkehrschluss nahe legt, dass
Kritiker der Werbung für Kinderprodukte, den jungen Kunden
ihre vorhandene Kompetenz absprechen bzw. diese nicht richtig ernst nehmen. Ein kritisch bewertetes kindliches Konsumverhalten wird von Barlovic und Clausnitzer vor allem auf eine
defizitäre Erziehung durch die Eltern, nicht aber auf die Werbung zurückgeführt. Indiz für ihre Annahme ist unter anderem,
dass es [1] auch der Werbung nicht gelinge, ein schlechtes
Produkt zu verkaufen. Die besondere Kompetenz von Kindern
sei [2] vor allem in der vernichtenden Kritik zu erkennen, die
die befragten Kinder und Jugendlichen in der kommerziellen
Werbeforschung den Kunden von iconkids & youth gegenüber
misslungenen Werbekampagnen äußern. Darüber hinaus würden Kinder [3] Produkte sehr bewusst über ihren Wert (Spaßfaktor und Profilierung gegenüber den Peers) beurteilen und
aussuchen. „Echter Produktnutzen schlägt Werbeaussagen,
Kinder sind da unbestechlich“ (Barlovic /Clausnitzer 2005: Seite 5 des Downloads). Dies gelte [4] auch für jene Produkte, die
49
08_hda_querschnitt_gesamt.indb 49
18.03.2008 16:08:23 Uhr
QUERSCHNITT 22
nach kurzzeitigem Gebrauch kaputt sind, da sie den „Kindern
zumindest kurzfristig einen enormen Nutzen bringen“ (ebd.).
Aus Sicht von Eltern, die sich im Supermarkt an der Kasse mit
dem Schild anstellen „Auf Anregung von Eltern verzichten wir
an dieser Kasse auf das Angebot von Süßigkeiten“, um dann
beim Auspacken des Einkaufswagens von Kleinspielzeug umgeben zu sein, muten entsprechende Aussagen wohl eher zynisch an. Die teilnehmende Beobachtung des Verhaltens von
Kindern zeigt, dass sie impulsives Kaufverhalten an den Tag
legen, das eine kurzfristige Befriedigung liefern soll. Dieses
Verhalten zeigt, dass Kinder nicht sehr kompetent bei der
Bewertung von Produkten sind. Der Erwerb von Kinderzeitschriften kann als gutes Beispiel dienen. Das Entscheiden zwischen verschiedenen Produkten erfolgt in der Regel aufgrund
des angebotenen „Gimmicks“ (also des kleinen Zusatzgeschenks, das auf dem Heft klebt). Solche give aways wurden in
Deutschland erstmals in den siebziger Jahren von der ComicZeitschrift „Yps“ eingeführt. Diesen im Vergleich zum eigentlichen Produkt billigen Zugaben kommt große Bedeutung zu.
Bei der (Aus-)Wahl kehrt sich genau genommen das Verhältnis von Produkt und Gimmick um. Das mitgelieferte Gimmick
prägt die Auswahl seitens des Kindes und die daran klebende
Zeitschrift wird zur netten Dreingabe: The gimmick sells.
Literatur •
1 Aufenanger, Stefan (2005): Medienpädagogische Überlegungen zur ökonomischen Sozialisation von Kindern. In:
merz. medien + erziehung, 49. Jg., H. 1 /05, S. 11-16.
2 Barlovic, Ingo /Clausnitzer, Christian (2005): Kommerzielle
Werbeforschung mit Kindern. Ziele, Methoden und der
Blick auf das Kind. In: merz. medien + erziehung, 49. Jg.,
H.1, S. 17-23. download: www.mediaculture-online.de /
fileadmin /bibliothek /barlovic_kinderwerbeforschung /
barlovic_ kinderwerbeforschung.pdf (Stand 15. 06. 2007).
3 Beck, Ulrich, Beck-Gernsheim, Elisabeth (1993): Nicht
Autonomie, sondern Bastelbiographie. In: Zeitschrift für
Soziologie, Jg. 22, H. 3, S. 178-187.
4 Becker, Cornelia (2002): Kinder im Netz der Werbewirtschaft – Kinderzeitschriften als Einstieg zu interaktiver
Werbung. sofia Diskussionsbeitrag zur Institutionenanalyse, Nr. 02-2, Darmstadt.
5 Becker, Cornelia (1999): Kinder und Jugendschutz in der
Werbung – eine Analyse von 100 Kinderzeitschriften. sofia
Diskussionsbeitrag zur Institutionenanalyse, Nr. 99-2,
Darmstadt.
6 Bickler, Daniela (2001): Zielgruppe Kinder – Handlungsspielräume eröffnen, Abhängigkeiten vermeiden. In: tv
diskurs – Verantwortung in audiovisuellen Medien, H. 17, S.
78-81. (Herausgegeben von der Freiwilligen Selbstkontrolle Fernsehen – FSF).
7 BRAVO Faktor Jugend 8 (2005): Now and Forever –
jugendliche Markenbeziehungen in der Retrospektive. Bauer
Media KG. Präsentation unter: http://www.bauermedia.com /
fileadmin /user_upload /pdf /studien /zielgruppe /jugend /
jugend8.pdf (Stand: 26.10.2007).
8 Deutscher Werberat (1998): Verhaltensregeln des Deutschen Werberats für die Werbung mit und vor Kindern in
Hörfunk und Fernsehen. unter: www.werberat.de → link:
Verhaltensregeln → link: Werbung mit und vor Kindern
(Stand 05. 04. 2007).
9 Egmont Ehapa Verlag (2007): Mediendaten 2007. Berlin.
10 Egmont Ehapa Verlag (2006): KidsVerbraucherAnalyse
2006. Kinderzielgruppen 6-13 Jahre. Präsentation des
Verlages. download: http://www.ehapamedia.de/
pdf_download /KVA06_Praesentation.pdf (Stand: 26.10.07).
11 Feierabend, Sabine /Klingler, Walter (2006): Was Kinder
sehen. Eine Analyse der Fernsehnutzung drei bis 13 jähriger 2005. In Mediaperspektiven, 3 /2006, S. 138-153.
50
08_hda_querschnitt_gesamt.indb 50
18.03.2008 16:08:24 Uhr
Gimme the Gimmicks FACHBEREICH GESELLSCHAFTSWISSENSCHAFTEN UND SOZIALE ARBEIT
12 Hedtke, Reinhold (2002): Ökonomische Bildung im Boom?
Konzeptionen, Interessen, Herausforderungen. download
unter http://www.uni-bielefeld.de /soz /ag /hedtke /pdf /
oekon-bildung_awt-online.pdf (Stand: 15. 06. 2007).
13 Heffler, Michael /Möbus, Pamela (2006): Der Werbemarkt
2005. Rekordwerte beim Bruttoumsatz – verhaltene Steigerung beim Nettoumsatz. In: Mediaperspektiven, 6 /2006,
S. 315-322.
14 Kahl, H. /Schaffrath Rossario, A. /Schlaud, M. (2007):
Sexuelle Reifung von Kindern und Jugendlichen in
Deutschland. Ergebnisse des Kinder- und Jugendgesundheitssurveys (KIGGS). In: Bundesgesundheitsblatt
– Gesundheitsforschung – Gesundheitsschutz, Jg. 50, Nr.
5 /6, S.677-685.
15 Kroeber-Riel, Werner /Esch, Franz-Rudolf (2004): Strategien und Techniken der Werbung. Verhaltenswissenschaftliche Ansätze. 6. Auflage, Stuttgart.
16 Oelkers, Jürgen (2004): Jugend, Konsum und Maßlosigkeit? Vortrag in der Veranstaltungsreihe Elternbildung
Winterthur zum Thema „Wandel im Familien- und Erziehungsalltag“ am 21. September 2004 in der Berufs- und
Fortbildungsschule Winterthur. download:
http://www.paed-work.unizh.ch /ap /downloads /oelkers /
Vortraege /149_Winterthur.pdf (Stand 06. 04. 2007).
17 Römer, Bettina von /Steffensen, Bernd (2007): Kinder und
Jugendliche als Zielgruppe des Erlebnismarketings –
Werbung in Kinderzeitschriften und korrespondierenden
Internetangeboten. sofia-Studien zur Institutionenanalyse,
Nr. 07-2, Darmstadt.
18 Schulze, Gerhard (1999): Die Zukunft des Erlebnismarktes.
Ausblicke und kritische Anmerkungen. In: Nickel, O.
(Hrsg.): Eventmarketing. Grundlagen und Erfolgsbeispiele,
München, S. 303-314.
19 VDZ [Verband Deutscher Zeitschriftenverleger] (2007):
Zeitschriften wieder auf Wachstumskurs. Anzeigenumsätze 2006 um 3,6 % gestiegen. Meldung vom 03. 04. 2007.
download unter: http://www.vdz.de /nachricht21.html?&tx_
ttnews[pointer]=16&tx_ttnews[tt_news]=2962&tx_ttnews[b
ackPid]=295&cHash=3650262c50 (Stand: 26. 11. 2007).
20 Vollbrecht, Ralf (2002): Werbung, Markenorientierung und
Konsum im Kindes- und Jugendalter. In: ajs info. Zeitschrift für Kinder- und Jugendschutz (herausgegeben von
Aktion Jugendschutz Sachsen e.V.), 9. Jg., Nr. 1, S. 5-7.
Kurzbiografien •
Dipl.-Soz. Bettina von Römer Jahrgang 1961, studierte Soziologie und Geschichte an den Universitäten Marburg und Bielefeld mit dem Schwerpunkt betriebliches Personal- und Organisationswesen. 1988 bis 1989 Mitarbeiterin an der Ludwig
Boltzmann Forschungsstelle für Politik und zwischenmenschliche Beziehungen (Wien). Von 1989 bis 1996 wissenschaftliche
Mitarbeiterin und Koordinatorin der Forschungsgruppe „Rationalität des Ingenieurhandelns“ an der Universität Kassel. Danach Lehrbeauftragte an verschiedenen Weiterbildungseinrichtungen. Freie Mitarbeiterin der Sonderforschungsgruppe
Institutionenanalyse (sofia) am Fachbereich Gesellschaftswissenschaften und Soziale Arbeit der Hochschule Darmstadt.
Prof. Dr. Bernd Steffensen Jahrgang 1960, studierte Soziologie, Verwaltungswissenschaften, Psychologie und Geschichte an den Universitäten Kiel, Bielefeld und Lancaster. Von 1989
bis 1992 wissenschaftlicher Mitarbeiter an der Universität
Bielefeld und am ASIF-Institut in Bielefeld. Von 1992 bis 1996
und von 1999-2000 wissenschaftlicher Mitarbeiter an der Akademie für Technikfolgenabschätzung in Baden-Württemberg
(Stuttgart). Hier vor allem Arbeiten zu Innovationsprozessen
bei neuen Technologien, zum regionalen Wirtschaftsstrukturwandel, zur Innovationswirkung der technischen Normung und
zum Thema technologieorientierte Unternehmensgründungen.
Von 1996 bis 1999 wissenschaftlicher Mitarbeiter am Lehrstuhl
Arbeit und Organisation an der Universität Stuttgart. Seit 2001
Professur an der Hochschule Darmstadt im Fachbereich Sozial und Kulturwissenschaften (seit 2007: Gesellschaftswissenschaften und Soziale Arbeit). Mitglied der Sonderforschungsgruppe Institutionenanalyse (sofia). Schwerpunkte der Arbeit
sind: Sozialwissenschaftliche Innovations- und Technikfolgenforschung, Unternehmensgründungen sowie Fragen der
rechtlichen Regulierung in unterschiedlichen gesellschaftlichen Bereichen.
51
08_hda_querschnitt_gesamt.indb 51
18.03.2008 16:08:26 Uhr
QUERSCHNITT 22
EIN ELEKTRONISCHES
LERN-MANAGEMENTSYSTEM MIT
INTEGRIERTER BILDTELEFONIEUND VIDEOKONFERENZFUNKTION
Autoren •
Prof. Dr. Michael Massoth, Daniel Brügger, Mahtab Dalir, Nadine Haertel, Jürgen Müller, Thomas Treusch und Christine Weber
Funktionen für Lehrer
• Verwaltung von Lerninhalten
• Verwaltung von Benutzern
und Benutzer-Rechten
• Verwaltung von Online-Tests
• Verwalten von Diskussionsforen
Funktionen für Lerner
• Anmeldung für Kursteilnahme
• Anmeldung für Online-Tests
• Erstellung von Beiträgen für
Foren
Kurse
Online-Hilfe
Asynchrone Kommunikation
• Diskussionsforen
• Pinnwand
Kommunikation
Synchrone Kommunikation
• Chat
• Whiteboard
• Audio- / Videokonferenz
Online-Test
Inhalt
Foren
verschiedene Rechte
mit unterschiedlichen Funktionen
Lerner
verschiedene
Rollen
Lerner
Administrator
Lehrer
Abbildung 1 • Aufbau und Konzeption des Lern-Managementsystems „Moodle“
52
08_hda_querschnitt_gesamt.indb 52
18.03.2008 16:08:29 Uhr
Ein elektronisches Lern-Managementsystem mit integrierter Bildtelefonie- und Videokonferenzfunktion FACHBEREICH INFORMATIK
1 • Einleitung und Motivation
Vision (1): Interaktives, echtzeitfähiges eLearning als Ergänzung der Hochschullehre
Noch vor wenigen Jahren war zu erwarten, dass eLearning das Lernen und Lehren revolutionieren
würde und der Bildung und Weiterbildung einen innovativen Schub geben würde. Heute ist weitgehend Ernüchterung eingetreten bezüglich des reinen eLearning. Aufgrund mangelnder Interaktion und
Echtzeitfähigkeit sowie nur weniger Kommunikationskanäle hält sich die freiwillige Nutzung durch
Dozenten und Lernende sehr in Grenzen. Beispiele für Echtzeitfähigkeit sind Voice over Internet
Protocol (VoIP), Bildtelefonie und Videokonferenzen.
Derzeit heißt der pragmatische Ansatz „Blended Learning“. Der Begriff „Blended Learning“
bedeutet vermischtes, integriertes Lernen und umfasst Präsenzunterricht in Kombination mit internetbasiertem Lernen. Blended Learning versucht die Vorteile und Stärken der Vermittlungsformen
seminaristischem Präsenzunterricht und eLearning zu nutzen. Die elektronische Unterstützung bietet
den Einsatz unterschiedlicher Medien (wie Bild, Video, Ton, Animation, Schrift, u.v.m.) an. Es
ermöglicht den Lernenden ein selbstbestimmtes Lerntempo und somit ein effektives, selbstgesteuertes
und optimiertes Lernen.
Vision (2): Next Generation Networks und das IP Multimedia Subsystem – die neue Architektur
Die Next Generation Networks oder Telekommunikationsnetzwerke der nächsten Generation nehmen
Gestalt an. Dabei wird es sich im Kern um paketvermittelte Netze handeln, die den Kunden eine
IP-Anbindung mit hoher Bitrate, Performance, Ende-zu-Ende-Qualität und Sicherheit bieten. Vieles an
der neuen Systemarchitektur basiert dabei auf den Erfahrungen rund um VoIP, Streaming und
modernen Mobilfunktechnologien, wie z. B. dem Universal Mobile Telecommunication System (UMTS)
und seinen Erweiterungen. Entscheidend für die neue Struktur ist die Trennung von Transportnetzwerk (IP-Backbone mit Dienstgüte-Unterstützung), Zugangstechnologie und Diensten. Das Netzwerk bildet dabei die Integrationsplattform für innovative Dienstleistungen, auf die von überall und
jederzeit zugegriffen werden kann. Ähnlich einem Dirigenten (hier: Mensch + IMS), der ein Orchester
mit verschiedensten Diensten und Anwendungen zu einem harmonischen Miteinander und
Zusammenwirken führen muss.
Das IP Multimedia Subsystem (IMS) ist ein wesentlicher Baustein der Next Generation Networks. Das
IMS ermöglicht providerübergreifenden Zugang zu den gewünschten Dienstleistungen im Heimatnetzwerk über das Internet Protocol (IP). Die Signalisierung und der Austausch von Kontrollnachrichten
erfolgt dabei mit dem Session Initiation Protocol (SIP), das für die Zusammenarbeit mit anderen Festnetz- und Mobilfunktechnologien erweitert wird.
53
08_hda_querschnitt_gesamt.indb 53
18.03.2008 16:08:30 Uhr
QUERSCHNITT 22
Multipoint Control Unit
Anwender
Internet
Open IMS Core
LDAP-Server
Web-Server (Moodle)
Abbildung 2 • Kooperation von Moodle und Open IMS
2 • Konkrete Ziele
Ziele des Projekts sind,
1 • Erweiterung des bereits vorhandenen und populären
eLearning-Managementsystems Moodle um eine Bildtelefonie- und Videokonferenzfunktion,
2 • Installation, Konfiguration und Betrieb eines IP Multimedia
Subsystem Cores (IMS Core),
3 • Zusammenführung, Integration und Betrieb der beiden
Open Source-Lösungen mit dem Lern-Managementsystem
Moodle als Anwendung und dem IMS Core als Sitzungssteuerung.
Das Lern-Managementsystem (LMS) einerseits und das IP
Multimedia Subsystem (IMS) mit Videotelefonie- und Videokonferenzfunktion andererseits sind voneinander unabhängige
Systeme.
Um die erste Zielsetzung zu erreichen, wurde das LMS Moodle
ausgesucht, da es eine Open Source-Plattform ist und bereits
an der Hochschule Darmstadt getestet und eingesetzt wird.
Moodle ist ein weltweit anerkanntes, elektronisches LMS und
basiert als eLearning-Plattform auf dem Konzept des konstruktivistischen Lernens. Die Abkürzung Moodle steht für
Modular Object Oriented Dynamic Learning Enviroment (modulare, objektorientierte und dynamische Lernumgebung).
Moodle wird als freie Software (Open Source) unter der GNU
General Public License Version 3 kostenlos zur Verfügung gestellt.
Abbildung 1 zeigt den Aufbau und die zugrundeliegende Konzeption des LMS Moodle.
Das Videokonferenzsystem soll auf dem Session Initiation
Protocol (SIP) basieren und einen Open Source SIP-Server benutzen. Für die Nutzung des SIP-Videokonferenzsystems wird
ein SIP-User Agent (SIP-Bildtelefon) benötigt. Solch ein SIPBildtelefon soll als Softwarekomponente in das LMS Moodle
integriert werden.
Das IP Multimedia Subsystem (IMS) ist eine Sammlung von
Spezifikationen des 3rd Generation Partnership Project (3GPP)
[2]. Unser zweites Ziel wird mittels des Open IMS umgesetzt.
Das Open IMS wurde vom Fraunhofer-Institut für Offene Kommunikationssysteme (FOKUS) [5] entwickelt. Dieses System
enthält alle notwendigen Bausteine des sogenannten IMS
Core für eine vollständige und nahtlose Integration von Technologien und Endgeräten sowie für den Einsatz von flexiblen
Kommunikationsdiensten und -anwendungen. Der IMS Core
realisiert alle wesentlichen IMS-Komponenten und Protokolle,
um die verschiedenen Architekturen und Dienste für Next Generation Networks zu verbinden.
Auf Basis des IMS Core können sowohl Telekommunikationsals auch Internettechnologien (Festnetze, Mobilfunknetze, Kabellose Netze, DSL-Netze) zu einer flexiblen und gemeinsamen
Infrastruktur kombiniert werden. Über diese Infrastruktur lassen sich neue Applikationen einführen. Im Rahmen des Projekts wird das Lern-Managementsystem Moodle über den IMS
Core bereitgestellt und um ein Videokonferenzsystem erweitert. Diese Kombination ist eine neue Entwicklung und führt
zur dritten Zielsetzung dieses Projekts: Der Zusammenführung, Integration und dem Betrieb der beiden Open SourceLösungen mit dem Lern-Managementsystem Moodle als Anwendung und dem IMS Core als Sitzungssteuerung.
Abbildung 2 zeigt die kooperative Zusammenarbeit der beiden Komponenten, dem Lern-Managementsystem Moodle mit
dem IP Multimedia Subsystem Open IMS.
3 • Markt und Nutzen
Der Markt für Informationswirtschaft, Telekommunikation und
neue Medien (ITK-Markt) befindet sich aktuell in einem fundamentalen Wandel. Aus technischer Sicht erleben wir im Rahmen der digitalen Konvergenz eine Ablösung der bisherigen,
leitungsvermittelten Netzwerktechnologien, hin zu paketvermittelten Zugangs- und Transportnetzwerken mit dem Internet Protocol (IP) als kostengünstige Vermittlungstechnologie.
Gleichzeitig kommt es zu einer Konvergenz von Fest- und Mobilfunknetzen.
Aus wirtschaftlicher Sicht erlebt der ITK-Markt eine Diversifikation und Differentiation. Die traditionelle Wertschöpfungskette erfährt eine Erweiterung und Aufspaltung in Contentprovider, Portalbetreiber, Serviceprovider und Netzwerkbetreiber.
Ehemals klassische Mobilfunkbetreiber versuchen ebenfalls
den Home- und Officemarkt zu erreichen, während sich ehemals klassische Festnetzbetreiber zusätzlich als virtuelle Mobilfunkanbieter und Betreiber von WLAN Hotspots betätigen.
Weltweit befinden sich immer mehr Betreiber in Test- oder
Trial-Phasen für IMS-Installationen. Laut einem Bericht von
ABI Research [3] werden Mobil- und Festnetzanbieter 10,1 Milliarden US-Dollar in IMS-Infrastrukturen im Zeitraum von
2006 bis 2011 investieren und voraussichtlich 49,6 Milliarden
US-Dollar Umsatz mit IMS-basierten Anwendungen erzielen.
54
08_hda_querschnitt_gesamt.indb 54
18.03.2008 16:08:31 Uhr
Ein elektronisches Lern-Managementsystem mit integrierter Bildtelefonie- und Videokonferenzfunktion FACHBEREICH INFORMATIK
Spiele-Server
Benutzer A
GSM
Open IMS Core
Benutzer B
GPRS
Abbildung 3 • Anwendungsbeispiel für den Einsatz von IMS
Diese Zahlen sprechen deutlich für das IMS als nächsten logischen Entwicklungsschritt in Richtung Konvergenz von Festnetz und Mobilfunk sowie für Triple und Quad Play-Angebote.
Eine breite Lobby von Unternehmen, insbesondere der Mobilfunkbranche, unterstützt die Forschung und Entwicklung der
IMS-Technologie durch hohe Investitionen, nicht zuletzt weil
dieser Sektor ein hohes Marktpotential verspricht.
Der Hauptnutzen dieser Entwicklung für den Endkunden ist
die Integration von Telefonie, Messaging, Videokommunikation
und anderen multimedialen Informationsdiensten sowohl im
Festnetz als auch im Mobilfunknetz. Das Internet Protocol (IP)
bildet dabei die Basis zur Integration von Sprache, Video, Messaging, Kalender, Adressbüchern und Präsenzinformationen.
Im Zusammenspiel all dieser Komponenten werden ganz neue,
einfacher zu nutzende und über IP nahtlos integrierbare Dienste für den professionellen Nutzer und den privaten Endkunden
entstehen. Studien mit Bezug auf die zukünftig verstärkt genutzten Anwendungen, wie Internet Protocol Television (IPTV)
oder auch Audio Streaming (Music) und Online Gaming, zeigen,
dass sich Investitionen in die IMS-Technologie rentieren. Nach
aktuellen Untersuchungen von Goldmedia und Kooperationspartner Screen Digest [4], wird Mobile-TV unter den mobilen
Anwendungen zukünftig den größten Wachstumsschub erzielen. Laut dieser Studie werden 2011 weltweit voraussichtlich
rund 140 Millionen Menschen Handy-TV nutzen und damit einen Umsatz von 4,7 Mrd. Euro erwirtschaften.
und zum anderen verfügen die meisten Messenger über eine
Presence Funktion (Prüfen des Onlinestatus). Bereits etabliert ist die Audiokommunikation mittels VoIP (Voice over IP).
Auch hierbei spielt SIP eine große Rolle. Genauso wie bei der
sich immer weiter verbreitenden Videokonferenz. Die nachfolgenden Anwendungen gehen davon aus, dass eine direkte
Verbindung zwischen zwei SIP User Agents besteht.
Anwendungsszenarien
Nicht nur die Netzbetreiber erwarten eine gute Performance
ihrer Netzwerke, auch die Endkunden möchten ihre Anwendungen schnell und einfach ausführen können.
Die Abbildung 3 stellt ein Szenario dar, wie Benutzer über
den IMS Core beispielsweise ein gemeinsames Online-Spiel
nutzen können. Benutzer A befindet sich aktuell in einem leitungsvermitteltem GSM-Mobilfunknetz, Benutzer B in einem
paketvermitteltem GPRS-Mobilfunknetz. Über eine standortunabhängige mobile Einheit (Handy, Laptop) führen beide Benutzer über das Internet ein Online-Spiel als Echtzeit-Anwendung aus.
Der Einsatz der SIP-Technologie ermöglicht viele verschiedene Kommunikationsanwendungen. Ein Beispiel dafür wären
Chats oder Instant Messanger. Instant Messenger benutzen
SIP sogar doppelt. Einmal für das Übertragen der Nachrichten
Videokonferenzen – Videoconferencing over IP
Kombiniert man nun diese beiden Technologien, Audio- und
Videokommunikation over IP, spricht man von einer Videokonferenz über IP. Das SDP sorgt auch hierbei für die richtigen Parametereinstellungen.
Audiokommunikation – Voice over IP (VoIP)
Mit VoIP bezeichnet man das Telefonieren über ein paketvermitteltes Computernetzwerk. Genau wie bei der klassischen
leitungsvermittelten Telefonie wird zuerst eine Verbindung
(Session) aufgebaut, über die dann Sprache und Steuerinformationen übertragen werden können. Beim Aushandeln der
Session wird mit Hilfe des Session Description Protocol (SDP)
festgelegt, welche Arte von Medien und welche Codecs verwendet werden können. Anschließend können dann die Nutzdaten (hier: Sprachpakete) an den UDP Port 1028 gesendet
werden.
Videokommunikation – Video over IP
Bei der Videokommunikation verläuft der Aufbau einer Session ähnlich wie bei der Audiokommunikation. Hier ist der Codec
H.263 mit einer Abtastrate von 90000 Hz aber fest vorgegeben.
Die Daten werden anschließend an den UDP Port 1038 gesendet.
Instant Messaging (IM)
Beim IM oder Nachrichtensofortversand ist es möglich, dass
ein Client kurze Textmitteilungen mit anderen Teilnehmern
austauscht. Hierfür ist keine Session nötig, da die Daten nur
einmalig gesendet werden. Der Text wird einfach im Message
Body einer SIP-Nachricht übertragen.
Presence (Ermitteln des Online-Status)
Mit der Presence-Funktion kann man herausfinden, ob der
gewünschte Gesprächsteilnehmer gerade online ist. Es wer55
08_hda_querschnitt_gesamt.indb 55
18.03.2008 16:08:31 Uhr
QUERSCHNITT 22
Anwendungsschicht
Anwendungs-Server
VerbindungsSteuerungsschicht
HSS, CSCF, MGCF, MRF, MGW
Verbindungsschicht
IP-Netz, PSTN/PLMN
Zugangsnetzschicht
GSM, GPRS, EDGE, UMTS, CDMA, Wi-Fi, WiMax, WLAN
CDMA
CSCF
EDGE
GPRS
GSM
HSS
IP
MGCF
MGW
MRF
PLMN
PSTN
UMTS
WiMax
WLAN
Code Division Multiple Access
Call Session Control Function
Enhanced Data Rates for GSM Evolution
General Radio Packet Service
Global System fpr Mobile Communication
Home Subscriber Server
Internet Protocol
Media Gateway Control Function
Media Gateway
Multimedia Recource Function
Public Land Mobile Network
Public Switched Telephone Network
Universal Mobile Telecommunication System
Worldwide interoperability for Microwave Access
Wireles Local Area Network
Abbildung 4 • IMS-Architektur mit Anwendungen.
den in voreingestellten Abständen Anfragen nach dem Status
des Gesprächsteilnehmers gesendet. Sobald dieser online ist,
wird eine entsprechende Antwort gesendet. Man kann auch
Einstellungen vornehmen, eine solche Antwort unterbindet
[13].
4 • Die Technik
Der IMS-Standard [1] beschreibt die grundlegenden Netzelemente, ihre Funktionen sowie die Schnittstellen zwischen ihnen. Die einzelnen Netzelemente übernehmen dabei verschiedene Funktionen, so stellt die Anwendungsschicht Dienste
bereit und die Call Session Control Functions (CSCF) übernehmen in der Verbindungs- und Steuerungsschicht die Signalisierung. Auf diese Weise sollen die verschiedenen Zugangsnetze, wie das Global System for Mobile Communication (GSM)
oder das Universal Mobile Telecommunication System (UMTS),
in der Verbindungsschicht in eine gemeinsame Infrastruktur
zusammengeführt werden.
Der Nutzen dieser Infrastruktur liegt für Mobilfunkbetreiber
darin, zahlreiche Sprach-, Multimedia- und Datendienste mit
dem Internet Protocol (IP) und dem Session Initiation Protocol (SIP) realisieren zu können. Dies gilt sowohl für Einzel- und
Gruppenkommunikation, als auch für Echtzeit- und NichtEchtzeit-Anwendungen sowie für Triple Play- und Quad PlayDienste. Beispiele für IMS-Anwendungen sind fixed und mobile
IPTV, VoIP, Multimedia- und Videokonferenzen, Videospiele mit
mehreren Teilnehmern sowie Push to Talk oder Instant Messaging. Darüber hinaus gestattet ein IMS den Aufbau von Multimediaverbindungen sowie den Wechsel zwischen verschiedenen Diensten ohne Medienbrüche. Für diesen Zweck bietet
das IMS eigene Standards und ein Schichten-Modell, wodurch
das Telekommunikationsnetz, wie in Abbildung 4 gezeigt, kon-
MMI
VoIP, PTT/PTS, Location Stream Game, VM, Push, Browser
Media Manager
OS
OAL
SIP
RTP
RTCP
Call Manager
H.264/MPEG-4, WMV, AMR, RTC, G.72x, G.711
TCP
AMR
Adaptive Multi-Rate
IP
Internet Protocol
IPsec Internet Protocol Security
MPEG-4 Moving Picture Experts Group Layer 4
MMI
Multimedia Interface
OAL
Operating System Abstraction Layer
OS
Operating System
PTS
Personal Telecommunication Service
PTT
Postal Telephone and Telegraph
Push
Push to Talk
RTC
Real Time Communication
RTCP Real Time Transport Control Protocol
RTP
Real Time Transport Protocol
SIP
Session Initiation Protocol
TCP
Transport Control Protocol
UDP
User Datagram Protocol
VM
Virtual Marketplace
VoIP
Voice over Internet Protocol
WMV
Windows Media Video
UDP
IP
IPsec
Abbildung 5 • Der IMS Software-Stapel
56
08_hda_querschnitt_gesamt.indb 56
18.03.2008 16:08:32 Uhr
Ein elektronisches Lern-Managementsystem mit integrierter Bildtelefonie- und Videokonferenzfunktion FACHBEREICH INFORMATIK
sequent in verschiedene Schichten für das Zugangsnetz, Vermittlungsnetz mit der Sitzungsschicht und die Anwendung
gliedert wird.
Abbildung 5 zeigt den IMS Software-Stapel mit den wichtigsten Protokollen, Codecs und Anwendungen.
Der IMS Core
Bisher wurden unterschiedliche Dienste über verschiedene
Netze übertragen. Festnetztelefonate laufen über das ISDNNetz, Mobiltelefonate über das GSM-Netz und TV beispielsweise über das Kabelnetz. Die Vision der Entwickler des IMS ist es,
diese heterogenen Netze in einem einzigen Netz zu vereinen.
Dies soll durch den Einsatz der IMS-Technologie geschehen.
Doch wie arbeitet solch ein Netz?
Der Kern eines IP Multimedia Subsystems besteht aus vier
Komponenten. Das sind drei Call Session Control Function
Server (CSCF) und ein Home Subscriber Server (HSS). Die
drei CSCF Server setzen sich zusammen aus einem Proxy- (PCSCF), einem Interrogating- (I-CSCF) und einem Serving- (SCSCF) Server zusammen. Sie übernehmen die Weiterleitung
der Nachrichten während der HSS als Datenbankserver fungiert, um Informationen über die Benutzer zu verwalten.
Nachfolgend wird erklärt, wie eine Nachricht durch das IMS
geleitet wird. Als erstes kommt ein Verbindungswunsch beim
P-CSCF an. Eine Firewall verhindert den Zugriff Unbefugter.
Anschließend wird die Nachricht, sofern erlaubt, an den I-CSCF
weitergeleitet. Dieser wählt dann anhand eines Datenbankabgleichs mit dem HSS aus, an welchen S-CSCF die Nachricht
weitergeleitet werden soll. Um das Kernnetzwerk vor Angriffen zu schützen, leitet der I-CSCF keine Informationen über
das Kernnetzwerk nach außen weiter. Ist ein S-CSCF gefunden, wird die Nachricht an diesen weitergeleitet. Der S-CSCF
fragt ebenfalls beim HSS nach, ob für den aktuellen Benutzer
spezielle Routingvorschriften gegeben sind. Danach wird die
Nachricht an den gewünschten Application Server weitergeleitet.
Abbildung 6 zeigt den Open IMS Core und seine Komponenten.
Das Potential von IMS liegt insbesondere darin, dass es für
die Core-Netze nicht mehr verschiedene Protokolle für Voiceund Datenanwendungen gibt, sondern nur noch das Session
Initiation Protocol (SIP). Das Session Initiation Protocol ist ein
Steuerungsprotokoll für Sitzungen von VoIP- oder Multimediadiensten. Es dient zur Übermittlung von Signalisierungs- und
Vermittlungsdaten für die Steuerung einer Kommunikations-
P-CSCF
CSCF
I-CSCF
P-CSCF
S-CSCF
HSS
IMS
Open IMS Core
Call Session Control Functionality
Interrogating-CSCF
Proxy-CSCF
Serving-CSCF
Home Subscriber Server
IP Multimedia Subsystem
I-CSCF
HSS
S-CSCF
Abbildung 6 • Die Komponenten des Open IMS Core
57
08_hda_querschnitt_gesamt.indb 57
18.03.2008 16:08:32 Uhr
QUERSCHNITT 22
Anwendungsschicht
Schadprogramme, Würmer
Transportschicht
Port Scanning,
Denial of Service-Angriff
Internet -Protokollschicht
Dynamic Host Configuration
Protocol Starvation,
Denial of Service-Angriff
Medium AccessKontrollschicht
Medium Access
Control Spoofing
Abbildung 7 • Angriffsarten für den IMS Core
sitzung. Diese kann sowohl eine Punkt-zu-Punkt-Verbindung
als auch eine Konferenz mit mehreren Teilnehmern sein. Über
SIP können die Anwendungen gesteuert und gestartet werden.
Die Einführung neuer Anwendungen sowie die Zusammenführung verschiedener Dienste werden deutlich einfacher. In
der Praxis könnte das so aussehen, dass über SIP die entsprechende Anwendung gestartet wird und in einem zweiten
Schritt der entsprechende Nutzdatenstrom der Anwendung
über das Real Time Transport Protocol (RTP) läuft. Interessant
dabei ist, dass über SIP mit der Signalisierung des Anwendungsstarts gleichzeitig die Benutzerauthentifizierung zentral
über einen Home Subscriber Server (HSS) erfolgt und nicht
mehr wie bisher für jede Anwendung getrennt. Gerade diese
Zusammenführung in einem einzigen Netzelement vereinfacht
die Integration verschiedener Dienste wie etwa Location based
Services mit Videotelefonie und Videokonferenzen.
4 • Schutz vor unbefugtem Abhören oder Mitschneiden der
Nutzdaten,
5 • Sicherstellung der Integrität empfangener Nutzdaten.
Die ersten drei Punkte (Schutz vor Missbrauch, der Identität
und vor Verfälschung) werden vom verwendeten Signalisierungsprotokoll und die letzten Punkte 4 und 5 (Schutz vor unbefugtem Abhören und Integrität) werden vom Transportprotokoll übernommen.
Da während der SIP-Signalisierung Nachrichten und Statusinformationen mit sensiblen Inhalten (z. B. Namen oder IPAdressen) übertragen werden, muss es Möglichkeiten geben
diese zu schützen. SIP als Vermittlungs- und Steuerungsprotokoll erlaubt verschiedene Verfahren zum Schutz sicherheitsrelevanter Daten [8]:
1 • SIP Digest
2 • SIPS (SIP Security) mit TLS (Transport Layer Security)
3 • S /MIME (Security /Multipurpose Inter Mail Extension)
SIP Digest ist ein Authentifizierungsverfahren für Teilnehmer.
5 • Sicherheit ist wichtig
Bei Voice over Internet Protocol (VoIP), Bildtelefonie und Vi- Es wird bei SIP Servern zur Identifizierung eines autorisierten
deokonferenzen werden sowohl Signalisierungs- als auch Nutzers, oder zur Authentifizierung eines Nutzers gegenüber
Sprachdaten über das Internet übertragen. Dies bedeutet, dass eines anderen Nutzers verwendet. Das Verfahren basiert auf
die Gefahren für Rechnernetze auch für den IMS Core gelten. der Übertragung eines gemeinsamen Geheimnisses („Shared
Angriffe auf Sprach- und Videokonferenzsysteme können auf Secret“). Dabei wird vom Authentifikator ein einmal gültiger
unterschiedliche Art erfolgen. Die Angriffsarten lassen sich in kontextbezogener Wert (Nonce Wert) erzeugt. Das Shared
ein Schichtenmodell einordnen: Insgesamt sind vier Schichten Secret ist u. a. vom Nonce Wert und einem Passwort abhängig
zu unterscheiden, nämlich Anwendungs-, Transport-, IP- und und wird verschlüsselt an den Authentifikanten übertragen.
Im Rahmen des Einsatzes von SIPS mit TLS ist es möglich,
MAC-Schicht.
Abbildung 7 soll die Angriffsarten auf den verschiedenen eine Authentifizierung der beteiligten Benutzer durch den
Austausch von Zertifikaten zu sichern. Anschließend werden
Netzwerschichten verdeutlichen.
Zugangscodes erzeugt, die nachfolgend nur den beteiligten
Benutzern bekannt sind. Damit Daten nicht einfach abgehört
Sicherheit im IMS Core
Wenn viele Informationen über öffentliche Netzwerknoten werden können, werden sie noch verschlüsselt. Um sicherzulaufen, stellt dies in der Regel ein beliebtes Ziel für Angreifer stellen, dass die empfangenen Nachrichten auf dem entspredar. Deshalb muss das IMS-Netzwerk vor solchen Angriffen chenden Sender ankommen, werden zwei Merkmale überprüft.
geschützt werden. Beim Einsatz eines IMS müssen folgende Zum einen wird zu Beginn der Übertragung eine Zufallszahl
ermittelt und diese nachfolgend hochgezählt. Zum anderen
Punkte als sicherheitsrelevante Aspekte beachtet werden:
1 • Schutz vor Missbrauch eines Teilnehmerzugangs beim wird ein gemeinsames Geheimnis (Shared Secret) ausgehandelt, welches in jeder Nachricht enthalten sein muss.
Netzbetreiber durch Unbefugte,
2 • Schutz der Identität (z. B. Name) und persönlicher Infor- In den Nachrichtenkörpern (Message Bodys) von SIP-Nachmationen (z. B. Aufenthaltsort, IP-Adresse) eines Teilneh- richten können auch weitere Informationen (wie z. B. der Presence-Zustand) vorhanden sein. Diese Informationen werden
mers,
üblicherweise nur von den SIP-Endgeräten ausgewertet. Mit
3 • Schutz vor Verfälschung von Steuerungsinformation,
einer Ende-zu-Ende-Verschlüsselung der Message Bodies
58
08_hda_querschnitt_gesamt.indb 58
18.03.2008 16:08:33 Uhr
Ein elektronisches Lern-Managementsystem mit integrierter Bildtelefonie- und Videokonferenzfunktion FACHBEREICH INFORMATIK
Test System
IMS Komponente A
IMS Komponente B
Test System
Test System Monitor
Abbildung 9 • Interoperability Testing
kann sichergestellt werden, dass diese Daten ausschließlich von den beteiligten Endgeräten gelesen werden können.
Dafür ist der Einsatz von S /MIME geeignet. S /MIME ist ein
Verschlüsselungs- und Authentifizierungsverfahren, das ursprünglich für E-Mail-Dienste entwickelt wurden, aber generell für eine gesicherte Übertragung von Message Bodys in
IP-Netzen verwendet werden kann. Der verschlüsselte Endezu-Ende-Transport über S /MIME wird durch die Nutzung von
privaten und öffentlichen Schlüsseln realisiert. Ein Message
Body wird durch den Absender mit dessen privaten Schlüssel
signiert und mit dem öffentlichen Schlüssel des Empfängers
verschlüsselt.
Diese Mechanismen können lediglich für die SIP-Signalisierung verwendet werden. Es kann nicht verhindert werden,
dass die eigentlichen Nutzdaten der Nachrichten (Sprache oder
Bild) mitgeschnitten werden. Ebenso kann nicht sichergestellt
werden, dass die Nachrichten auch wirklich vom erwarteten
Sender kommen. Dieses Problem kann gelöst werden, indem
man das Secure Real Time Transport Protocol (SRTP) einsetzt.
Hierbei handelt es sich um eine spezielle sicherere Variante
eines gängigen Multimediaprotokolls (RTP). Den gesendeten
Paketen werden dabei zusätzlich Master Keys beigelegt, die
nur den beteiligten Benutzern bekannt sind. Damit diese nicht
ausgelesen werden können, wird das SRTP-Packet verschlüsselt und am Ende mit einer Prüfsumme versehen.
Alternativ dazu kann im Open IMS Core auch IP Security (IPSec) zum Einsatz kommen. IPSec kann alle oben genannten
fünf Sicherheitsbedürfnisse gleichzeitig abdecken und eine
sichere Verbindung auf der IP-Ebene des Datenverkehrs ermöglichen. Auch hier wird die Authentifizierung und Integrität
durch die Übertragung eines automatisch generierten Keys
und eines Shared Secrets realisiert. Es können zwar auch
feste Keys verwendet werden, diese sind jedoch meist leichter zu knacken. Für die Verschlüsselung der transportierten
Nutzdaten ist Encapsulating Security Payload (ESP) zuständig.
Authentification Header (AH) schützt Pakete vor Veränderung
und garantiert die Herkunft von Paketen. IPSec kann im Peerto-Peer-Betrieb punktweise zwischen einzelnen Rechnern
eingesetzt werden, in diesem Fall wird IPSec im Transportmodus benutzt. Sollen zwei Gateways miteinander kommunizieren, um zwei verschiedene Netzwerke miteinander zu verbinden, so wird IPSec im Tunnelmodus eingesetzt. Wegen seiner
flexiblen Einsetzbarkeit auf IP-Ebene eignet sich IPSec auch
exzellent zum Bau von Virtual Private Networks (VPN).
Der Open IMS Core wurde vom Fraunhofer FOKUS bereits für
den Einsatz mit Transport Layer Security (TLS) und Internet
Protocol Security (IPsec) vorbereitet.
6 • Performance und Qualität
IMS Testing
Erste „IMS Interoperability Tests“ verschiedener Industrieunternehmen und Infrastrukturausrüster fanden im Oktober
2007 statt. Die aktuellen Testspezifikationen beinhalten im
Wesentlichen drei Testbereiche „IMS Conformance Testing“,
„IMS Interoperability Testing“ und „IMS Performance Testing“.
Diese Testbereiche sollen auch von diesem Projekt aufgegriffen und weiterentwickelt werden.
IMS Conformance Testing
Beim Conformance Testing wird, wie auch die Abbildung 8
darstellt, jede Komponente des Gesamtsystems auf Erfüllung
aller vorher definierten Spezifikationen getestet. Es wird geprüft, ob alle Richtlinien von Protokollen und Standards eingehalten werden [13].
Test System
IMS Komponente
Abbildung 8 • Conformance Testing
IMS Interoperability Testing
Beim Interoperability Testing werden zwei verschiedene Komponenten des Systems in Kombination miteinander getestet.
Es wird geprüft, ob die zwei Komponenten über ein Netzwerk
miteinander kommunizieren können und alle Schnittstellendefinitionen eingehalten wurden [13]. In Abbildung 9 kann man
sehen, dass sowohl die einzelnen Komponenten als auch die
Schnittstellen der Komponenten untereinander getestet werden.
IMS Performance Testing
Beim Performance Testing werden die Leistung, die Kapazität
und die Skalierbarkeit getestet (siehe auch Abbildung 11). Es
werden dann zusätzliche Benchmarktests für einen Vergleich
mit anderen Systemen durchgeführt [13].
59
08_hda_querschnitt_gesamt.indb 59
18.03.2008 16:08:33 Uhr
QUERSCHNITT 22
Abbildung 10 • Das Projektteam (von links nach rechts): Nadine Haertel, Daniel Brügger, Thomas Treusch, Prof. Dr. Michael Massoth (im Bildschirm), Jürgen Müller,
Christine Weber und Mahtab Dalir
nigt. Der IMS Core übernimmt dabei die Aufgabe der Sitzungssteuerung, während das Lern-Managementsystem Moodle
als Anwendung fungiert. Das IP Multimedia Subsystem ist die
aktuelle Referenzarchitektur für die Anwendungen und Dienste der nächsten Generation sowie die Integrationsplattform
für die Konvergenz von Fest- und Mobilfunknetzwerken. Die
hohen Investitionen der ITK-Netzbetreiber und die zahlreichen
positiven Marktprognosen bescheinigen dem IMS eine bedeutende und erfolgreiche Zukunft.
Das Besondere an diesem Projekt ist die Zusammenführung
der beiden topaktuellen Open Source „State of the Art“-Lösungen für die praxisorientierte, wissenschaftliche Ausbildung
der Studierenden und zum Wohle der Hochschule.
Durch den Betrieb eines elektronischen Lern-Managementsystems mit integrierter Bildtelefonie- und Videokonferenzfunktion stände erstmals ein interaktives, echtzeitfähiges
eLearning als Ergänzung der Hochschullehre bereit.
7 • Zusammenfassung und Ausblick
Die besondere Herausforderung dieses Projektes ist es, dass Entsprechend des pragmatischen Ansatzes des Blended Learelektronische Lern-Managementsystem „Moodle“ um ein nings könnte der seminaristische Präsenzunterricht durch
SIP-basiertes Bildtelefonie- und Videokonferenzsystem zu er- den Einsatz unterschiedlicher elektronischer Medien (wie Bildweitern. Dazu werden die beiden Open Source-Lösungen, das telefonie, Videokonferenz, Animationen, Simulationen, u.v.m.)
Lern-Managementsystem Moodle einerseits und das IP Multi- ergänzt werden und den Lernenden somit ein effektiveres,
media Subsystem (IMS Core) andererseits miteinander verei- selbstgesteuertes und optimiertes Lernen ermöglichen.
Ausgesuchte Testfälle
Sämtliche Testfälle werden ausschließlich mit Freeware bzw.
Open Source Tools realisiert. Für die Paketanalyse wird das
Tool „Wireshark“ [9] verwendet. Bei der Generierung von Traffic für Last- oder Performancetest wird das Open Source Tool
„IMS Bench SIPp“ [10] eingesetzt.
Beim Testen der Kommunikation wird das Verhalten der
Clients jeweils bei einem Verbindungsaufbau und Verbindungsabbau analysiert. Anschließend kann dann eine Kommunikation zweier Clients über den Server durchgeführt und dabei ihr
Verhalten geprüft werden.
Bei Lasttests wird das Verhalten des Servers während einer
großen Anzahl an parallelen Anmeldungen analysiert. Hierbei
gilt es herauszufinden, wie viele parallele Kommunikationen
der Server ohne Leistungseinbrüche bewältigen kann [15].
Test System
IMS
Abbildung 11 • Performance Test
60
08_hda_querschnitt_gesamt.indb 60
18.03.2008 16:08:34 Uhr
Ein elektronisches Lern-Managementsystem mit integrierter Bildtelefonie- und Videokonferenzfunktion FACHBEREICH INFORMATIK
You CAN get it...
Hardware und Software für CAN-Bus-Anwendungen…
Besuchen Sie uns
Halle 12 Stand 512
Auftragsentwicklung in
den Bereichen Kfz- und
Industrietechnik
Entwicklung und
Vertrieb von Produkten
für den CAN-Bus
PEAK-System Technik GmbH — Otto-Roehm-Str. 69 — D-64293 Darmstadt / Germany
Phone: +49-6151-817320 — Fax: +49-6151-817329 — Email: [email protected]
www.peak-system.com
Literatur •
1 http://www.sipknowledge.com /IMS_Specs.htm
2 http://www.3gpp.org /
3 http://www.abiresearch.com /
abiprdisplay.jsp?pressid=660
4 http://www.goldmedia.com /aktuelles /info /news /
hohes-potenzial-fuer-mobile-tv-weltweit /247.html
5 http://www.fokus.fraunhofer.de /ims
6 http://www.funkschau.de /heftarchiv /pdf /2007 /fs_0705 /
fs_0705_s44-s46%20IMS.pdf
7 http://www.openimscore.org /
8 Ulrich Tick, Frank Weber: SIP, TCP /IP und Telekommunikationsnetze, Oldenbourg Wissenschaftsverlag 2005
9 http://www.wireshark.org
10 http://sipp.sourceforge.net /ims_bench
11 http://www.fh-liste.de
12 Tevetoglu, Seda: Konzept zur Erweiterung des elektronischen Lernmanagementsystems „Moodle“ um ein Videokonferenzsystem, Bachelorarbeit Hochschule Darmstadt,
2006
13 Din, George: Introduction to IMS Testing, Foliensatz IMSWorkshop, 2007
14 http://moodle.org /mod /forum /discuss.php?d=57028
15 Lambert, Maik: Aufbau und Betrieb eines Testnetzes zur
Veranschaulichung der Abläufe von Voice over IP,
Bachelorarbeit Hochschule Darmstadt, 2007
Kurzbiografie •
Professor Dr. Michael Massoth, geb. 1966, studierte Mathematik und Physik an den Universitäten Frankfurt /Main und
Bochum. Er promovierte am Max-Planck-Institut für Physik
komplexer Systeme in Dresden. Danach arbeitete er sechs
Jahre lang als Research Engineer, Senior System Designer
und Projektmanager bei der Ericsson Eurolab Deutschland
GmbH im Bereich Mobilfunk (GSM, GPRS, UMTS) in Herzogenrath. Im August 2005 erwarb er den MBA-Abschluss „Entrepreneurship“ am Aachen Institute of Applied Sciences. Seit
September 2005 unterrichtet er an der Hochschule Darmstadt
Telekommunikation, Wirtschaftsinformatik sowie Grundlagen
der Informatik. Darüber hinaus ist er Koordinator für den allgemeinen Masterstudiengang Informatik.
61
08_hda_querschnitt_gesamt.indb 61
18.03.2008 16:08:38 Uhr
QUERSCHNITT 22
EINFLUSS DER ANLASSINTENSITÄT
AUF DIE MECHANISCHEN EIGENSCHAFTEN EINES BORLEGIERTEN
MARTENSITISCHEN KAROSSERIESTAHLS
Autoren •
Professor Dr.-Ing. Mario Säglitz Fachbereich Maschinenbau und Kunststofftechnik, Hochschule Darmstadt,
Professor Dr. George Krauss Advanced Steel Processing and Products Research Center, Colorado School of Mines
und Cand.-Ing. Matthias Niegel Fachbereich Maschinenbau und Kunststofftechnik, Hochschule Darmstadt
Elongation (%)
70
Ultra High Strength Steels
(> 700 MPa)
Low Strength
High Strength Steels
Steels (< 270 MPa)
60
Conventional HSS
50
IF
AHSS
40
Mild
30
IF HS
ISO
BH
TRIP
CMn
20
HSLA
DP, CP
10
MART
0
0
300
600
900
1200
1600
Tensile Strength (MPa)
Abbildung 1 • Stahlsorten für die Verwendung im Karosseriebau [2]
62
08_hda_querschnitt_gesamt.indb 62
18.03.2008 16:08:38 Uhr
Einfluss der Anlassintensität auf die mechanischen Eigenschaften FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK
eines borlegierten martensitischen Karosseriestahls
1 • Einführung
Die Karosserie stellt das wesentliche Strukturelement eines Fahrzeugs dar. Sowohl Konstruktion als
auch Werkstoffauswahl entscheiden hier über wichtige Eigenschaften, wie z.B. Torsionssteifigkeit
und Crash-Sicherheit. Nach wie vor wird als bevorzugter Karosseriewerkstoff Stahl verwendet. Dieser
bietet wie kaum ein anderes Material die Möglichkeit, ein optimales Verhältnis zwischen Festigkeit
und Zähigkeit bei gleichzeitig wirtschaftlicher Verarbeitbarkeit einzustellen. Infolge hoher Festigkeiten
kann die Blechdicke gering gehalten werden, so dass hieraus auch ein geringes Karosserie-Gesamtgewicht resultiert. Vor diesem durchaus positiven Hintergrund unterlagen Karosseriestähle in den letzten
beiden Jahrzehnten einer kontinuierlichen, ja teilweise sogar dramatischen Weiterentwicklung.
Hierfür ursächlich waren ständig steigende Anforderungen
hinsichtlich der
• Reduzierung des Fahrzeuggewichts,
• Verringerung des Kraftstoffverbrauchs,
• Verbesserung der Abgasqualität,
• Verbesserung der Korrosionsbeständigkeit und
• Erhöhung der passiven Sicherheit.
Auch verbesserte sich in diesem Zeitraum die Leistungsfähigkeit von Computern derart rasant, so dass mit ständig
optimierten Softwareprodukten z.B. FEM-Analysen effizient
durchgeführt werden konnten. Es war nun möglich, einen frühen Einblick in die tatsächlichen, lokalen Beanspruchungen
einzelner Karosseriebereiche zu gewinnen. Folglich lag es nahe, die Gesamtkarosserie in Segmente mit unterschiedlichen
Anforderungen an Festigkeit und Verformungsfähigkeit aufzuteilen und diese mit unterschiedlichen Stahlqualitäten zu realisieren. Vor diesem Hintergrund wurden in der Vergangenheit
diverse Stahlsorten – speziell zugeschnitten auf die Bedürfnisse im Karosseriebau – neu entwickelt. Beispiele typischer
Karosseriestähle sind [1]:
• Mikrolegierte HSLA-Stähle
(HSLA=High-Strength-Low-Alloy),
• IF-Stähle (IF=Interstitial-Free),
• DP-Stähle (DP=Dual-Phase) und
• TRIP-Stähle (TRIP=Transformation-Induced Plasticity).
Abbildung 1 vermittelt einen Eindruck bezüglich der Vielfalt
der im Automobilbau zur Anwendung kommenden Stähle
[2]. Deutlich ist die Gegenläufigkeit von Zugfestigkeit (Tensile Strength) und Bruchdehnung (Elongation) zu erkennen:
Höhere Festigkeiten korrelieren in der Regel mit geringeren
Duktilitätswerten.
Abbildung 2 zeigt die Struktur der aktuellen Volvo V70-Rohkarosserie unter Angabe der verwendeten Stahlgüten. An diesem aktuellen Entwicklungsbeispiel lassen sich einige wesentlichen Vorteile der Diversifizierung von Karosseriestählen
aufzeigen: Grundsätzlich bietet ein Materialmix die Möglichkeit,
hohe Torsionssteifigkeiten mit geringem Gewicht zu verbinden.
Ferner kann z.B. die Frontstruktur in unterschiedliche Zonen
mit jeweils spezifischen Deformationseigenschaften aufgeteilt werden: Während sich im Falle eines Frontal-Crashs die
vordere Zone des Fahrzeugs stark verformt, nimmt der Grad
der Deformation mit zunehmender Annäherung an die steife
Fahrgastzelle konsequent ab. Dies wird zum einen konstruktiv
durch die Verwendung zusätzlicher Versteifungselemente im
Bereich der Fahrgastzelle erreicht. Zum anderen kann werkstofftechnisch Einfluss genommen werden durch die Verwendung sorgfältig aufeinander abgestimmter Stahlsorten unterschiedlicher Festigkeitsgüten, wobei die Festigkeiten in
Richtung zur Fahrgastzelle zunehmen. Abbildung 2 ist zu entnehmen, dass Volvo neben einem üblichen (relativ weichen)
Karosseriestahl vier weitere Stahlsorten hoch- und höchstfester Güten verwendet [3].
63
08_hda_querschnitt_gesamt.indb 63
18.03.2008 16:08:40 Uhr
QUERSCHNITT 22
Abbildung 2 • Materialmix einer aktuellen Rohkarosserie am Beispiel des Volvos V70 [3]
Diese Tendenz des Karosserie-Rohbaus mit zunehmendem
Anteil an höherfesten Stählen ist typisch für aktuelle Fahrzeugentwicklungen. Mercedes z.B. gibt an, dass in der aktuellen C-Klasse (W204) ein quasi „erdrutschartiger Wandel“ weg
von den konventionellen weichen Karosseriestählen hin zu
hoch- und höchstfesten Stählen stattgefunden hat. Gegenüber
dem Vorgängermodell sank der Anteil an weichen Stählen von
56 % auf nur noch 25 %. Stahl blieb dennoch das dominierende Material mit einem Anteil von ca. 70 % am Karosserierohbaugewicht, wenn auch überwiegend in Form von hoch- und
höchstfesten Stählen mit einer Zugfestigkeit bis zu 1200 MPa
[4].
Auch zukünftig werden sich durch technische Fortschritte weitere Verbesserungen auf dem Gebiet der Karosseriestähle ergeben [5]. Ein aktueller Ansatz, die kontinuierlich steigenden
Anforderungen – insbesondere hinsichtlich Sicherheit und
Gewichtsreduktion – zu erfüllen, ist der Einsatz höchstfester
Stähle mit überwiegend martensitischem Gefüge. Diese Stähle weisen hohe Festigkeiten bei allerdings nur eingeschränkter
Duktilität auf. Typische Bruchdehnungswerte entsprechender
Stahlbleche liegen bei nur etwa 5 % [6,7].
Daher beschränken sich erste Anwendungen auf Teile, deren Fertigung nur eine geringe Verformbarkeit erfordert. Ein
Beispiel hierfür sind Stoßstangen, die mittels Rollformen gefertigt werden. Aktuell wird auch das Heißpressen als Fertigungsverfahren genutzt: hiermit können Teile komplexerer
Gestalt gefertigt werden [8]. Allerdings wird bei diesem Verfahren der martensitische Gefügezustand erst nach erfolgter
Umformung durch Abschrecken im Presswerkzeug erreicht.
Somit handelt es sich beim Heißpressen um ein eher kostenintensives Fertigungsverfahren.
Der Einfluss des Anlassens gehärteter martensitischer Gefüge
mit mittlerem Kohlenstoffgehalt auf die mechanischen Eigenschaften wurde in der Vergangenheit bereits umfangreich untersucht [9,10,11]. Dagegen wurde dem Anlassen von martensitischen Karosseriestählen mit geringem Kohlenstoffgehalt in
der Literatur bisher nur wenig Aufmerksamkeit geschenkt: So
untersuchte Okamoto in [6] einen Stahl mit niedrigem Kohlenstoffgehalt (C = 0,14 Masse-%) und zeigte, dass im gehärteten,
nicht angelassenen Zustand hohe Festigkeiten bei jedoch nur
moderater Duktilität erzielt werden können. Zugversuche an
gehärteten Proben ergaben bei üblichen Dehnungsgeschwindigkeiten und 150 °C Versuchstemperatur nur eingeschränkte
Bruchdehnungswerte infolge der Wirkung dynamischer Alterungsprozesse. Sehr niedrige Verformungsraten hingegen
führten bei 150 °C bereits zu Bruchdehnungen von etwa 14 %,
und dies bei einer dem gehärteten Zustand vergleichbaren
Zugfestigkeit von bis zu 1500 MPa. Ursache hierfür sind erste
anlassähnliche Gefügeumwandlungsprozesse, die offensichtlich bereits während der Versuchsdurchführung bei 150 °C
stattgefunden haben. Dieses Beispiel verdeutlicht, dass unter
bestimmten Randbedingungen durch Einbringung thermischer
Energie die Duktilität gegenüber dem nur gehärteten Zustand
– hier beträgt die Bruchdehnung nur etwa 5 % – signifikant auf
wesentlich höhere Werte bei nur geringem Festigkeitsverlust
gesteigert werden kann.
2 • Ziel des Projektes
Ziel des aktuellen Projektes ist es daher, am Beispiel einer gängigen in der Automobilindustrie genutzten Stahlsorte systematische Anlassversuche an gehärteten Proben durchzuführen
und letztere anschließend im Zugversuch auf deren mechanische Eigenschaften zu überprüfen. Es sollen hierdurch ggf.
Zustände identifiziert werden, die sich gegenüber dem gehärteten Zustand durch höhere Duktilitätswerte bei möglichst nur
geringen Festigkeitseinbußen auszeichnen. Auch sollen Anlasszustände aufgezeigt werden, die sich durch eine Versprödung des Gefüges von den übrigen Zuständen abgrenzen. Es
wäre wünschenswert, wenn die Ergebnisse der vorliegenden
Untersuchung dazu beitragen, zukünftig vermehrt komplexer
geformte Karosseriekomponenten aus angelassenen martensitischen Stählen durch wirtschaftliche Kaltumformverfahren
zu fertigen.
3 • Versuchsdurchführung
Stähle mit niedrigem Kohlenstoffgehalt weisen eine geringe
Härtbarkeit auf und sind daher häufig mit Elementen wie z.B.
Mangan und Chrom legiert [1,6]. Stahlbleche enthalten vielfach
64
08_hda_querschnitt_gesamt.indb 64
18.03.2008 16:08:41 Uhr
Einfluss der Anlassintensität auf die mechanischen Eigenschaften FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK
eines borlegierten martensitischen Karosseriestahls
Spannung (MPa)
Anlasstemperatur
(°C) 150
Anlassdauer (s)
1800
abgeschreckt
1600
175
200
250
350
460
520
TA=
150 °C
1400
1200
120
---
---
---
---
---
x
---
1000
600
x
x
x
x
x
x
x
800
3.600
x
x
x
x
x
x
x
600
36.000
x
x
x
x
x
x
x
175 °C
200 °C
250 °C
350 °C
tA=1h
520° C
460 °C
400
0
2
4
6
8
10
12
Dehnung (%)
Abbildung 3 • Spektrum der gewählten Anlasstemperaturen und -dauern
Abbildung 4 • Zugversuchskennlinien nach dem Anlassen (1h) bei
unterschiedlichen Temperaturen
auch Bor-Zusätze zur Härtbarkeitssteigerung [12]. In diesem
Projekt wird daher ein borlegierter Stahl mit einem Kohlenstoffgehalt von C = 0,22 Masse-% verwendet. Der Borzusatz
beträgt 35 ppm. Weitere Zusätze sind Mangan (1,0 Masse-%)
und Chrom (0,2 Masse-%). Es handelt sich hierbei um einen
Stahl für die Serienfertigung von höchstfesten Karosseriekomponenten, der freundlicherweise von Severstal Inc. North
America zur Verfügung gestellt wurde.
Aus dem 1,7 mm dicken Blechmaterial wurden Zugversuchsproben entsprechend der ASTM Richtlinie E-8-82 gefertigt.
Sämtliche Proben wurden bei 890 °C im Salzbad austenitisiert
und anschließend in Wasser abgeschreckt. Das hierbei entstandene Härtungsgefüge wies eine Härte von ca. 50 HRC auf,
was in guter Übereinstimmung mit Angaben in der Literatur
ist [1]. Zur Untersuchung des Einflusses unterschiedlicher Anlassbedingungen wurden im weiteren Verlauf Anlassbehandlungen zwischen 150 °C und 520 °C bei Anlassdauern zwischen
2 Minuten und 10 Stunden durchgeführt. Die konkret gewählten
Parameter sind Abbildung 3 zu entnehmen; die Behandlungen
wurden im Ölbad, im Salzbad bzw. im Ofen durchgeführt, wobei die gewählten Temperaturen den Bereich der ersten bis
zur dritten Anlassstufe [13] umfassen. In Kombination mit den
variierten Anlassdauern sollte es somit möglich sein, Zustände erhöhter Duktilität zu identifizieren und ggf. gegenüber Zuständen möglicher Versprödung (Tempered Martensite Embrittlement) abzugrenzen.
über dem nur abgeschreckten Zustand geringfügig größere
Bruchdehnungen auf, was einer grundsätzlichen – wenn auch
nur geringen – Zunahme an Duktilität entspricht. Der maximale Duktilitätsgewinn ergibt sich im LTT-Bereich bereits nach
einem Anlassen bei 150 °C und 10 Minuten, hier erhöht sich die
Bruchdehnung um etwa 1 %.
Interessanterweise weisen im LTT-Bereich die mechanischen
Eigenschaften eine nur geringe Abhängigkeit von der Anlassdauer auf: Bei gewählten Zeitdauern zwischen 10 Minuten und
10 Stunden schwanken die resultierenden Bruchdehnungen
nur um 0,5 %. Auch ist hervorzuheben, dass sich die größte Bruchdehnung bereits nach kürzester Anlassdauer von
nur 10 Minuten einstellt. Gleichzeitig ist hierbei der Festigkeitsrückgang minimal, so dass eben dieser Anlasszustand
(150 °C / 10 Minuten) das Optimum im LTT-Bereich darstellt:
Während der ersten Anlassstufe bildet sich hier rasch ein Gefügezustand aus, der sich durch eine hohe Zugfestigkeit von
etwa 1600 MPa und eine Bruchdehnung von über 7 % auszeichnet. Da der Kohlenstoffgehalt des untersuchten Stahls mit 0,22
Masse-% in der Größenordnung der in der Literatur genannten Mindestgrenze für die Bildung von Übergangskarbiden
liegt (0,2 Masse % in [13], 0,25 Masse-% in [14], werden sich
folglich auch nur wenig Übergangskarbide (ε- und η-Karbide)
beim Anlassen zwischen 150 °C und 200 °C gebildet haben. Der
überwiegende Teil der im Martensit gelösten Kohlenstoffatome wird diesem Szenario zufolge energiegünstiger in der
Nähe von Versetzungen eingelagert sein [1]. Die ohnehin nur
geringe tetragonale Verzerrung des Martensits würde nur wenig abnehmen. Andere Autoren berichten hingegen von Ergebnissen röntgenografischer Feinstrukturuntersuchungen, die
darauf hindeuten, dass die Tetragonalität und damit der Gehalt
an im Martensit gelösten Kohlenstoff systematisch während
der ersten Anlassstufe absinkt, bis der kubische Zustand der
Matrix erreicht ist [15,16]. In diesem zweiten Szenario würden
folglich mehr Übergangskarbide im Martensit ausgeschieden
werden. Allerdings wäre wegen des niedrigen Kohlenstoffgehalts des vorliegenden Stahls auch diese Menge an Karbiden
nur gering. Folglich ändern sich in vorliegender Untersuchung
die mechanischen Eigenschaften des Martensits durch ein
4 • Ergebnisse / Diskussion
Im folgenden wird über erste Ergebnisse der noch laufenden
Studie berichtet. Am Beispiel der für eine Stunde angelassenen
Proben zeigt Abbildung 4 typische Spannungs-Dehnungs-Verläufe. Deutlich zu erkennen ist, dass – wie zu erwarten – mit
zunehmender Anlasstemperatur grundsätzlich eine Abnahme der Zugfestigkeit einhergeht. Dieser Festigkeitsrückgang
ist für niedrige Anlasstemperaturen zwischen 150 °C und
200 °C – im Bereich des LTT (= Low Temperature Tempering)
– allerdings nur relativ gering ausgeprägt. Hier sinkt die Zugfestigkeit von ca. 1710 MPa (abgeschreckt) auf Werte um etwa
1500-1600 MPa. Gleichzeitig weisen alle LTT-Proben gegen-
65
08_hda_querschnitt_gesamt.indb 65
18.03.2008 16:08:43 Uhr
QUERSCHNITT 22
Literaturangaben
(martensitische Karosseriestähle)
Zugfestigkeit (MPa)
Zugfestigkeit (MPa)
1800
TA : Anlasstemperatur
abgeschreckt
1800
1600
1500
1400
TA = 150–350 °C
1200
1200
TA = 460 °C
1000
900
Lieferzustand
800
TA = 520 °C
600
600
0
5
10
15
Bruchdehnung (%)
5000
7000
9000
11000
13000
15000
T [K] * (11,8+[s])
Abbildung 5 • Korrelation zwischen Zugfestigkeit und Bruchdehnung nach dem
Härten und Anlassen
Abbildung 6 • Zugfestigkeit als Funktion des Anlassparameters
Anlassen bei niedrigen Temperaturen weitaus weniger, als es
z.B. bei einem Stahl mit höherem Kohlenstoffgehalt der Fall
wäre. Auch ist in diesem Zusammenhang sicherlich von Bedeutung, dass ein Stahl mit niedrigem Kohlenstoffgehalt eine
hohe Martensit-Start-Temperatur aufweist, so dass bereits
beim Abschrecken
• Erholungsprozesse bzgl. der bei der Martensitbildung entstandenen Versetzungen stattfinden (Bemerkung: Infolge einer nur gering ausgeprägten Anpassverformung bei Stählen
mit niedrigem Kohlenstoffgehalt entstehen bei der Martensitbildung weniger Versetzungen als bei Stählen mit höherem
Kohlenstoffgehalt),
• Kohlenstoffatome zu Versetzungen diffundieren und
• erste Übergangscarbide
entstehen.
Über das Bestreben der Kohlenstoffatome, je nach Randbedingungen im Martensit gelöst zu bleiben, sich an Versetzungen
anzuordnen (Segregation) oder aber Übergangskarbide zu bilden, wird umfangreich in der Literatur berichtet [17-21].
Grundsätzlich zeigt vorliegende Untersuchung, dass bis zu
einer Anlasstemperatur von 350 °C ein nur moderater Festigkeitsrückgang stattfindet. Da in gleichem Maße (ab 175 °C)
jedoch auch die Bruchdehnung abnimmt, legt dies die Vermutung nahe, dass Versprödungseffekte das Gefüge negativ beeinflussen. Derartige Gefügeversprödungen sind aus der Literatur bekannt. Sie werden u.a. als „300 °C-Versprödung“ [22]
oder auch als „Tempered Martensite Embrittlement (TME)“ [1]
bezeichnet. Diese Art der Versprödung tritt häufig im Temperaturbereich zwischen 200 °C und 400 °C auf und ist auf erste
Zementitausscheidungen und /oder Phosphorausscheidungen
auf ehemaligen Austenitkorngrenzen zurückzuführen [1]. Der
Phosphorgehalt des untersuchten Stahls beträgt ca. 0,01 %, so
dass in vorliegendem Material vermutlich erste Zementit- und
auch Phosphorausscheidungen am Rückgang der Duktilität
beteiligt sind.
Anlasstemperaturen oberhalb 350 °C – in vorliegender Untersuchung 460 °C und 520 °C – führen im Zugversuch zu einem
stark ausgeprägten Festigkeitsverlust. Der Festigkeitsrückgang korreliert hier – anders als bei geringeren Anlassinten-
sitäten – mit einer signifikanten Zunahme der Bruchdehnung,
allerdings erst ab 460 °C / 10h. Das Anlassen in diesem Temperaturbereich der 3. Anlassstufe ergibt Zugfestigkeiten zwischen 820 MPa und 1130 MPa. Die höheren Festigkeitswerte
korrespondieren noch mit geringen Bruchdehnungswerten
um 6,3 %, die niedrigeren Festigkeitswerte mit Bruchdehnungswerten bis 12,5 %. Das Anlassen bewirkt hier die Einstellung eines Gleichgewichtsgefüges aus Zementit und Ferrit
sowie bereits eine Einformung, d.h. Koagulation der Zementitteilchen [13].
Abbildung 5 zeigt zusammenfassend die in vorliegender Untersuchung erzielten Zugfestigkeiten als Funktion der zugehörigen Bruchdehnungen. Ergänzend zu obigen Ausführungen
ist darauf hinzuweisen, dass der Anlasstemperatur von 460 °C
offensichtlich eine besondere Rolle zukommt: Es handelt sich
hierbei um die einzige Temperatur dieser Studie, bei der das
Variieren der Zeitdauer (2 Minuten bis 10 Stunden) zu einem
breiten Wertespektrum der Festigkeit und Bruchdehnung
führt: Die Spannweite der Paarung Zugfestigkeit /Bruchdehnung reicht hier von 1150 MPa / 6,3 % bis 910 MPa / 9,8 %. Hierbei handelt es sich im wesentlichen nicht um systematische
Variationen, sondern vielmehr um signifikante Streuungen
der Ergebnisse. Auch die hier gewählte minimale Anlassdauer
von 2 Minuten (sonst 10 Minuten) ist nicht primär ursächlich
für dieses Verhalten. Letztere wurde gewählt, um den Einfluss
eines Tauchbadverzinkens (ca. 460 °C / wenige Minuten) auf
die mechanischen Eigenschaften eines martensitischen Karosseriestahls zu simulieren: Den Ergebnissen ist zu entnehmen, dass eine derartige Anlassintensität offensichtlich bereits genügt, die Zugfestigkeit von ca. 1700 MPa (abgeschreckt)
auf Werte zwischen 980 MPa und 1130 MPa drastisch zu verringern. Auch die Streuung der zugehörigen Bruchdehnungen
ist beträchtlich, hier reichen die Werte von 6,3 % - 8,1 %. Offensichtlich ist bei dieser Temperatur der Martensit bestrebt,
rasch in das Gleichgewichtsgefüge aus Zementit und Ferrit
umzuwandeln. Mit zunehmender Anlassdauer wird in diesem
Temperaturbereich vermutlich der Zementit auch bereits vergröbern. Diese Prozesse laufen diffusionsgesteuert ab und
werden in starkem Maße beeinflusst von der im Mikrogefü-
66
08_hda_querschnitt_gesamt.indb 66
18.03.2008 16:08:44 Uhr
Einfluss der Anlassintensität auf die mechanischen Eigenschaften FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK
eines borlegierten martensitischen Karosseriestahls
1600
2000
Zugfestigkeit
abgeschreckt
Dehn- bzw. Streckgrenze
1600
1400
1200
1200
800
1000
400
800
0
600
zunehmende
Anlasstemperatur
angelassen bei TA = 150 °C–520 °C
Spannung (MPa)
Festigkeit (MPa)
tA = 1h
100
200
300
400
500
600
Anlasstemperatur (°C)
Abbildung 7 • Festigkeitskennwerte (Zugversuch) nach dem Anlassen
ge vorliegenden Kohlenstoffverteilung. Bei 460 °C wird daher
– insbesondere bei nur kurzen Anlasszeiten – ein entsprechendes Mischgefüge aus Martensit, Ferrit, Übergangskarbiden und Zementit vorliegen, bei langen Anlassdauern dagegen
ein ferritisches Gefüge mit teils groben Zementitteilchen. Die
Reproduzierbarkeit dieser Gefügezustände erscheint somit
schwieriger als bei den anderen gewählten Anlasstemperaturen, so dass hieraus folglich eine größere Streuung der mechanischen Eigenschaften resultiert.
Die Kombination unterschiedlicher Anlasstemperaturen und
Anlassdauern in vorliegender Untersuchung ermöglicht das
Auftragen der Zugfestigkeit als Funktion eines Anlassparameters der Form T*(C+logt), der erstmalig von Holloman und Jaffe [23] eingeführt wurde. Er berücksichtigt den Umstand, dass
beim Anlassen grundsätzlich beide Variablen, Temperatur und
Zeit, gegeneinander tauschbar sind, die Temperatur allerdings
eine durchgreifendere Wirkung aufweist. In Abbildung 6 ist die
Zugfestigkeit des untersuchten borlegierten Karosseriestahls
als Funktion des Holloman-Jaffe-Parameters dargestellt. Es
wurde hierzu – wie in [9] zur Optimierung der Regressionslinien – die Konstante C zu 11,8 gewählt. Deutlich ist der kontinuierliche Rückgang der Festigkeit mit zunehmender Anlassintensität zu erkennen. Die Beziehung kann im Bereich der
ersten Anlassstufe als annähernd linear beschrieben werden,
die Werte für die zweite und dritte Anlassstufe weisen größere
Streuungen auf. Mit Zunahme der Anlassintensität überwiegt
die Wirkung der effektiven Länge kohlenstofffreier Versetzungssegmente auf die Verformungsverfestigung: Mit einsetzender Vergröberung der Übergangskarbide und schließlich
deren Ersatz durch größere Zementitteilchen [25] nimmt die
Länge freier Versetzungssegmente zu. Dieser Prozess wird
bei höheren Anlasstemperaturen über die Vergröberung der
Zementitteilchen fortgesetzt. Hierdurch verringern sich die
Fließspannungen [26], was wiederum einen kontinuierlichen
Rückgang der Festigkeit zur Folge hat.
Innerhalb der ersten Anlassstufe nehmen die Werte der Dehngrenze mit steigender Anlassintensität leicht zu (Abbildung 7).
Dieses resultiert vermutlich aus einem erholungsbedingten
Abbau kohlenstofffreier Versetzungen im Martensit und einer
0
0,3
0,6
0,9
1,2
1,5
Dehnung (%)
Abbildung 8 • Änderung des Übergangs von elastischer zur plastischen
Ver formung mit zunehmender Anlasstemperatur (Dehngrenze → Streckgrenze)
zunehmenden Dichte an Übergangscarbiden. Letzterer Prozess wird – wie bereits oben ausgeführt – nur gering ausgeprägt sein, da der Kohlenstoffgehalt des untersuchten Stahls
nur 0,22 Masse-% beträgt.
Abbildung 7 ist zusätzlich zu entnehmen, dass bei höheren
Anlasstemperaturen die Dehngrenze, bzw. dann Streckgrenze,
niedrigere Werte aufweist. Dies ist auf die
• Bildung und Vergröberung von Zementitteilchen,
• kontinuierlich ablaufende Erholungsvorgänge in der martensitischen Matrix
und schließlich
• die Umwandlung von Martensit in Ferrit
zurückzuführen.
Mit steigender Anlasstemperatur tragen ferner die zunehmend homogenere Matrixstruktur und die größeren Abstände
der Karbidteilchen zu einem Rückgang der Verformungsverfestigung und folglich auch zu einem Rückgang der Zugfestigkeit bei (Abbildung 4).
Abbildung 8 zeigt einen Ausschnitt von Zugversuchsverläufen am Übergang vom elastischen in den plastischen Verformungsbereich. Die Gestalt dieses Übergangs wandelt sich
mit zunehmender Anlassintensität von einer Dehngrenze in
eine Streckgrenze. Bereits ab einer Anlasstemperatur von
175 °C bildet sich bei längerer Anlassdauer (10h) erstmalig eine Streckgrenze mit geringer Lüdersdehnung aus (Abbildung
9). Die Ausprägung der Streckgrenze, d.h. der Betrag der Lüdersdehnung, zeigt eine eindeutige Abhängigkeit von der Anlasstemperatur (Abbildung 10): Höhere Temperaturen resultieren in längeren Lüdersdehnungen. Im Bereich zwischen
175 °C und 350 °C kann diese Beziehung gut linear angenähert
werden. Interessanterweise zeigt sich auch beim Aspekt Lüdersdehnung bei 460 °C eine Besonderheit: Ein Anlassen bei
dieser Temperatur führt auch hier infolge des ausgeprägten
Potenzials an Gefügeumwandlungsprozessen zu einer großen
Streubreite der gemessenen Werte.
Bei Betrachtung des Einflusses der Lüdersdehnung auf die
Zugfestigkeit zeigt sich eine eindeutige Beziehung: Zunehmende Werte der Lüdersdehnung führen zu geringeren Zugfestigkeitswerten. Diese Abhängigkeit weist interessanterwei67
08_hda_querschnitt_gesamt.indb 67
18.03.2008 16:08:46 Uhr
QUERSCHNITT 22
Spannung (MPa)
Lüdersdehnung (%)
1500
1h
5
tA = 10 min
1400
4
10 h
max. Spannweite
bei TA = 460 °C
1300
3
1200
2
1100
1
TA = 175 °C
1000
0
0
0,5
1
1,5
2
Dehnung (%)
0
200
400
600
Anlasstemperatur (°C)
Abbildung 9 • Beginn der Ausbildung einer Streckgrenze bereits nach 10h Anlassen bei 175 ˚C
Abbildung 10 • Abhängigkeit der Lüdersdehnung von der Anlasstemperatur
se eine lineare Abhängigkeit auf (Abbildung 11).
Gleichzeitig verringert sich mit zunehmender Lüdersdehnung
die Differenz zwischen Zugfestigkeit und Streckgrenze, was einer abnehmenden Intensität der Verformungsverfestigung im
plastischen Dehnungsbereich entspricht. Ab einer Anlasstemperatur von ca. 400 °C findet keine merkliche Verformungsverfestigung mehr statt (Abbildung 7). Offensichtlich ist dann
die Anzahl an Versetzungshindernissen (im wesentlichen feindispers verteilte Karbide) zu gering, um hier mit fortschreitender plastischer Verformung eine Erhöhung des Verformungswiderstandes zu bewirken. Auch scheint hier während
der plastischen Verformung keine ausgeprägte Versetzungsvervielfachung und hiermit einhergehende Versetzungsbewegungsbehinderung stattzufinden.
Abschließend ist in Abbildung 12 die Zugfestigkeit als Funktion der Härte dargestellt: Während für den Bereich der Anlasstemperaturen zwischen 150 °C und 350 °C eine lineare Abhängigkeit zu erkennen ist, ist dies infolge der großen Streuung
der Werte bei 460 °C nicht mehr der Fall. Auch die Werte bei
520 °C weisen keinen eindeutig linearen Charakter auf.
Festigkeit sinkt gleichzeitig die Bruchdehnung. Erst bei noch
höheren Anlassintensitäten stellen sich signifikant größere
Bruchdehnungen ein. Diese erreichen bei einer Anlasstemperatur von 520 °C Werte bis etwa 12,5 % bei einer Zugfestigkeit
von immerhin noch 820 MPa.
Der Anlasstemperatur von 460 °C kommt eine besondere Bedeutung zu: Bereits wenige Minuten bedeuten für die
Zugfestigkeit ein Verlust von bis zu ca. 40 % gegenüber dem
martensitischen Zustand. Vor diesem Hintergrund erscheint
ein Tauchbadverzinken für martensitische Karosseriebleche
nicht geeignet. Auch treten bei den 460 °C-Proben die größten
Streubreiten der Zugfestigkeits- und Bruchdehnungswerte auf.
Offensichtlich finden bei dieser Temperatur ausgeprägt Gefügeumwandlungs- und Teilchenvergröberungsprozesse statt.
Zur weiteren Diskussion der Ergebnisse sind Gefügeuntersuchungen am Licht- und Elektronenmikroskop erforderlich.
Diese sind in einer späteren Phase des Projektes vorgesehen.
Auch die Bewertung weiterer Einflussgrößen auf die mechanischen Eigenschaften (z.B. Probentemperatur und Dehnungsgeschwindigkeit im Zugversuch) bleibt einer möglichen
späteren Phase des Projektes vorbehalten.
5 • Zusammenfassung / Ausblick
In der vorgestellten Studie wird die grundsätzliche Eignung
angelassener martensitischer Stähle für eine Kaltumformung
eher komplex geformter Karosseriekomponenten beleuchtet. Zum Auffinden von Gefügezuständen hoher Festigkeit bei
gleichzeitig hoher Duktilität wurden systematische Anlassversuche an gehärteten Proben eines gängigen borlegierten
Karosseriestahls durchgeführt und anschließend die mechanischen Eigenschaften im Zugversuch ermittelt und bewertet.
Die bisherigen Auswertungen zeigen, dass durch ein Anlassen bei niedrigen Temperaturen die Duktilität gegenüber dem
gehärteten Zustand – bei nur mäßigem Verlust an Zugfestigkeit – leicht angehoben werden kann. Die gemessenen Bruchdehnungen von ca. 7 % liegen oberhalb der in der Literatur genannten Angaben von etwa 5 %. Die Zugfestigkeit beträgt hier
immerhin noch bis etwa 1600 MPa.
Ein Anlassen bei höheren Temperaturen bis ca. 350 °C führt
zu Versprödungseffekten im Gefüge, d.h. mit abnehmender
68
08_hda_querschnitt_gesamt.indb 68
18.03.2008 16:08:47 Uhr
Einfluss der Anlassintensität auf die mechanischen Eigenschaften FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK
eines borlegierten martensitischen Karosseriestahls
Zugfestigkeit (MPa)
1800
TA = Anlasstemperatur
Lüdersdehnung (%)
1600
1
Anlasstemperaturen:
175 °C – 350 °C
1400
TA = 150 °C – 350 °C
0,8
1200
0,6
1000
0,4
TA = 460 °C
800
0,2
TA = 520 °C
600
0
1000
1200
1400
1600
1800
20
30
40
50
60
Zugfestigkeit (MPa)
Härte HRC
Abbildung 11 • Ausbildung einer linearen Beziehung zwischen Lüdersdehnung
und Zugfestigkeit bei Anlasstemperaturen von 175 °C bis 350 °C
Abbildung 12 • Korrelation zwischen Zugfestigkeit und Härte nach dem Härten
und Anlassen
Literatur •
1 G. Krauss: Steels - Processing, Structure, and Performance. ASM International, Materials Park, Ohio, 2005
2 C. D. Horvath: The Future Revolution in Automotive High
Strength Steel Usage. Great Designs in Steel 2005, Seminar, February 18, 2004
3 R. Danisch: Technik-Porträt Volvo V70. Automobiltechnische Zeitschrift ATZ 11 (2007), S.1036-1038
4 K.-P. Claar: Mit weichen Stählen kommen wir heute nicht
weiter. Interview, Automobiltechnische Zeitschrift ATZ 10
(2007), S.952-953
5 D.K. Matlock und J.G. Speer: Design Considerations for
the Next Generation of Advanced High Strength Sheet
Steels. Proceedings of the 3rd International Conference on
Structural Steels, H.C. Lee (Hrsg.), The Korean Institute of
Metals and Materials, Seoul, Korea, 2006, S.774-781
6 Shoji Okamoto: Strain Rate and Temperature Effects on
Deformation Behavior and Mechanical Properties of AsQuenched Low-Carbon Martensite. M.S. Thesis, Colorado
School of Mines, 1990
7 http//www.mittalsteel.com /Products/
Automotive+Applications /Martensitic+Steels, 23.12.2007
8 J. Faderl und R. Vehof: Press Hardening Steel (PHS): A
new Coating and Process Technology. Proceedings of the
International Conference on Steels in Cars and Trucks,
Wiesbaden, Germany, Verlag Stahleisen GmbH, Düsseldorf, 2005
9 M. Säglitz und G. Krauss: Eigenschaften von bei niedrigen
Temperaturen angelassenen SAE-43xx-Stählen. HärtereiTechnische Mitteilungen HTM 52 (1997) 5, S. 261, 271-280
10 M. Säglitz und G. Krauss: Deformation, Fracture and
Mechanical Properties of Low-temperature-tempered
Martensite in SAE 43xx Steels. Metallurgical and Materials
Transactions A, Vol 28A, 1997, S.377-387
11 M. Saeglitz und G. Krauss: Effect of Time and Temperature on the Properties of High Strength Hardened Steels.
Proceedings of „The 6th International Seminar of IFHT”,
Kyongju, South Korea, Korean Society for Heat Treatment,
Oktober 1997, S.316-323
12 S. K. Banerji und J.E.Morral (Hrsg.): Boron in Steel. TMSAIME, Warrendale, PA, 1980
13 E. Macherauch: Praktikum in Werkstoffkunde. Vieweg
Verlag, Braunschweig / Wiesbaden, 9.Auflage, 1990
14 C.S. Roberts, B.L Averbach und M. Cohen: The Mechanism
and Kinetics of the First Stage of Tempering. Trans. ASM
45 (1953), S.576-604
15 V.G. Veeraraghavan und P.G. Winchell: 200, 020, and 002
X-ray Peaks in Tempered Fe-18Ni-C Martensites. Metall.
Trans. 6A (1975), S.701-705
16 E. Hanke: Erklärung der Anlasswirkung in gehärteten
Stählen durch den Snoek- und Cottrell-Effekt. Zeitschrift
für Wirtschaftliche Fertigung 64 (1969) 12, S.634-646
17 D.V. Wilson: Effects of Plastic Deformation on Carbide
Precipitation in Steel. Acta Metall. 5 (1957), S.293-302
18 E.T. Stephenson und M. Cohen: The Effect of Prestraining
and Retempering on AISI Type 4340. Trans. ASM 54 (1961),
S.72-83
19 D. Kalish und M. Cohen: Structural Changes and
Strengthening in the Strain Tempering of Martensite. Materials Science and Engineering 6 (1970), S.156-166
20 H. Gleiter: Die Formänderung von Ausscheidungen durch
Diffusion im Spannungsfeld von Versetzungen. Acta Met.
16 (1968), S. 455-464
21 H. Gleiter: Ausseidungshärtung durch Diffusion im Spannungsfeld einer Versetzung. Acta Met. 16 (1968), S.857-862
22 H.J. Eckstein: Technologie der Wärmebehandlung von
Stahl. VEB Deutscher Verlag für Grundstoffindustrie, Leipzig, 2.Auflage, 1977
23 J.H. Holloman und L.D. Jaffe: Time-Tempering Relations
in Tempering Steels. Transactions, American Institute of
Mining and Metallurgical Engineers 162 (1945), S.223-249
69
08_hda_querschnitt_gesamt.indb 69
18.03.2008 16:08:48 Uhr
QUERSCHNITT 22
24 H.-C. Lee und G. Krauss: Interlath Carbide Transitions in
Martensitic Medium-Carbon Steels Tempered Between
200 °C and 300 °C. Gilbert R. Speich Symposium Proc., ISS,
G. Krauss und P.E Repas (Hrsg.), Warrendale, 1992, S.3943
25 D. Kuhlmann-Wilsdorf: Theory of Workhardening 19341984. Metall. Trans. 16A (1985), S.2091-2108
Kurzbiografien •
Prof. Dr.-Ing. Mario Säglitz, Jahrgang 1962. Maschinenbaustudium an der TU Berlin von 1981-1988. Anschließend wissenschaftlicher Mitarbeiter am Institut für Werkstofftechnik der
TU Berlin und Promotion in 1994. Von 1994-1996 Dozent an der
Staatlichen Technikerschule Berlin im Bereich Maschinenbau.
1995 und 1996 zwei von der DFG finanzierte Forschungsaufenthalte an der Colorado School of Mines in Colorado, USA.
Forschungsthema: Härten und Anlassen (LTT) hochfester
Stähle. Von 1996-2005 Projekttätigkeit im Bereich „Forschung
und Entwicklung“ der Deutschen Bahn AG: Leitung von innovativen Projekten auf dem Gebiet der Onboard-Diagnostik
und Instandhaltung von ICE-Zügen. Wesentliche Ergebnisse
mündeten in diverse Patente. Von 2005-2006 Professor an der
FHWT in Diepholz. Seit 2006 Professor an der h_da im Fachbereich Maschinenbau und Kunststofftechnik. Fachgebiet:
Werkstofftechnik.
urgie und seit 1997 Emeritus Professor. Von 1984-1993 erster
Direktor des von ihm mit gegründeten industrienahen „Advanced Steel Processing and Products Research Center“ an der
School of Mines. Von 1989-1991 Präsident der „International Federation of Heat Treatment and Surface Engineering (IFHTSE)”
und von 1989-91 Präsident der „ASM International”. Autor und
Co-Autor von Fachbüchern und zahlreichen Publikationen. Ehrung durch diverse internationale Auszeichnungen.
Cand.-Ing. Matthias Niegel, Jahrgang 1981. 2001 Abitur in
Darmstadt. 2002 und 2003 Durchführung sozialer Projekte in
Indien. Seit 2003 Maschinenbaustudium an der h_da. Aktuell
Anfertigung der Diplomarbeit auf dem Gebiet der Werkstofftechnik zum Thema: „Untersuchungen zum Einfluss der Anlassintensität auf die mechanischen Eigenschaften eines borlegierten Karosseriestahls“.
Acknowledgement •
Dieses Forschungsprojekt wurde mit freundlicher Unterstützung des Zentrums für Forschung und Entwicklung der h_da
(zfe) und dem Advanced Steel Processing and Products Research Center (ASPPRC), einer von Universität und Industrie
getragenenen Forschungseinrichtung an der Colorado School
of Mines, durchgeführt. Der für die Proben verwendete Stahl
wurde freundlicherweise von Fa. Severstal North America,
Inc. zur Verfügung gestellt.
Prof. Dr. George Krauss, Bachelorstudium der Werkstoffwissenschaften /Metallurgie an der Lehigh University, USA. Anschließend Masterstudium und Promotion auf dem Gebiet der
Metallurgie am Massachusetts Institute of Technology, USA
(M.S. 1958 und Sc.D. 1961). Von 1962-1963 Forschungsaufenthalt in Deutschland am Max Planck Institut für Eisenforschung
in Düsseldorf. Von 1963-1975 Assistant Professor, Associate
Professor und Professor für Metallurgie und Werkstoffwissenschaften an der Lehigh University. 1975 Wechsel an die
Colorado School of Mines /USA, Übernahme einer AMAX-Stiftungsprofessur im Fachgebiet Metallphysik, dann John-Henry-Moore Professor für Werkstoffwissenschaften und Metall70
08_hda_querschnitt_gesamt.indb 70
18.03.2008 16:08:50 Uhr
,QQRYDWLYH/|VXQJHQ
für die pharmazeutische Produkt- und Packmittelkontrolle
Wollen Sie mit uns erfolgreich sein?
Motivierten, aufgeschlossenen
Studenten bieten wir abwechslungsreiche und herausfordernde
Tätigkeiten mit der Möglichkeit,
interessante Projekte selbstständig oder im Team zu bearbeiten,
und erstklassige Betreuung.
Praktikantenstellen für Praxissemester
Diplomarbeiten für Studierende der
Fachrichtungen
Informatik
Elektrotechnik
Bildverarbeitung
08_hda_querschnitt_gesamt.indb 71
scanware electronic GmbH
Darmstädter Str. 9-11
64404 Bickenbach
www.scanware.de
Tel.: +49-(0)6257-9352-0
Fax: +49-(0)6257-9352-22
E-Mail: [email protected]
18.03.2008 16:08:50 Uhr
QUERSCHNITT 22
ÜBER DIE STOKES-EINSTEINBEZIEHUNG FÜR FLUIDSYSTEME MIT
DURCHDRINGBAREN TEILCHEN
Autoren •
Helge-Otmar May FB MK, Hochschule Darmstadt
Peter Mausbach Fakultät 09, Fachhochschule Köln
1 • Abstrakt
Die Stokes-Einstein-Beziehung, die einen Zusammenhang für die Diffusionskonstante, die Scherviskosität und die Temperatur eines Fluids herstellt, kann bei vielen Stoffen angewendet werden. Allerdings
gibt es einige wichtige Ausnahmen. In dieser Arbeit wird das „Gaussian Core Model (GCM) Liquid“
betrachtet, eine eigentümliche Flüssigkeit, bei der die klassische Stokes-Einstein-Beziehung ebenfalls
verletzt ist. Eine wesentliche Besonderheit dieser Flüssigkeit besteht darin, dass ihr Wechselwirkungspotential beschränkt ist. Aus dieser Eigenschaft ergeben sich einige thermodynamische Anomalien, die
mit Hilfe von Computersimulationen untersucht wurden. Außerdem wird gezeigt, wie die StokesEinstein-Relation für Flüssigkeiten mit beschränktem Wechselwirkungspotential erweitert werden kann.
72
08_hda_querschnitt_gesamt.indb 72
18.03.2008 16:08:50 Uhr
Über die Stokes-Einstein-Beziehung für Fluidsysteme mit durchdringbaren Teilchen FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK
2 • Einleitung
Viele Eigenschaften realer Flüssigkeiten wie z.B. von Wasser
konnten erst mit Hilfe von molekulardynamischen Simulationen gefunden und aufgedeckt werden. Will man das Verhalten von Flüssigkeiten in einer Richtung beeinflussen, so geht
dies nur, wenn man weiß, wie sich bestimmte Bedingungen
der Wechselwirkungspotentiale auf die makroskopischen Eigenschaften auswirken. Es besteht deshalb die Notwendigkeit, Modellflüssigkeiten zu untersuchen. Eine solche wichtige
Modellflüssigkeit ist das „Gaussian Core Model (GCM) Liquid“
[1-6], dessen Bedeutung im Bereich der Polymerchemie bereits erkannt wurde [7-9]. Dadurch, dass dieses Potential
beschränkt ist, wird ein gegenseitiges Durchdringen der Teilchen möglich und dies führt zu einigen Eigenschaften, die sich
von „normalen Flüssigkeiten“ unterscheiden. Da es keinen Anziehungsterm im Wechselwirkungspotential gibt, ist z.B. kein
Gas-Flüssig-Übergang möglich. Diese Systeme sind in den
letzten Jahren Gegenstand intensiver Forschung im Bereich
der weichen kondensierten Materie geworden, da sie zur Modellierung verschiedenster Polymersysteme genutzt werden
können, d.h. das GCM wird als effektives Modellpotential für
solche Molekülsysteme, die aus Tausenden von Atomen bestehen können, verwendet [10].
Eine wichtige Eigenschaft „normaler“ Flüssigkeiten ist die
Gültigkeit der Stokes-Einstein-Beziehung (SE-Beziehung): Im
Jahre 1905 publizierte Einstein [11] diese Beziehung zwischen
der Diffusionskonstanten D, der Scherviskosität η und der
Temperatur T eines Fluides unter der Annahme, dass die dif73
08_hda_querschnitt_gesamt.indb 73
18.03.2008 16:08:51 Uhr
QUERSCHNITT 22
P'
P'
a)
b)
114.28
100.46
11.196
87.53
9.071
75.49
64.33
7.169
54.07
44.70
5.489
11.117
4.032
9.007
36.22
113.92
100.13
87.22
75.20
64.08
53.84
44.50
36.04
28.48
21.80
16.02
11.12
7.115
28.63
5.446
4.000
21.93
2.775
2.799
1.788
1.772
1.001
0.987
0.437
0.421
0.101
16.12
11.20
0.080
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
T'
T'
Abbildung 1 • Druck als Funktion der Temperatur für verschiedene Isochoren. Die Symbole kennzeichnen die simulierten Phasenpunkte, die durchgezogenen Linien
stellen die Isochoren der Zustandsgleichung dar. a) Dichte von 6,4 bis 2,0 in Schritten von 0,4 von oben nach unten, b) von 2,0 bis 0,2 in Schritten von 0,2 von oben nach
unten.
fundierenden Teilchen sehr viel größer als die Teilchen der
umgebenden Flüssigkeit sind:
Dη
(1)
=S,
T
wobei S eine Konstante ist. Zur Herleitung der Relation benutzte er die Stokes-Lösung zur Berechnung der Widerstandskraft einer Kugel in einer Flüssigkeit. Diese Beziehung
(1) ist sehr allgemein gültig und wird erfolgreich bei der Bestimmung der Diffusionskonstanten angewendet [12]. Trotzdem sind verschiedene Situationen bekannt, bei denen die Stokes-Einstein-Relation versagt. Hierzu zählen z.B. superfluides
Helium, bei dem die Viskosität verschwindet, wenn sich die
Temperatur dem absoluten Nullpunkt nähert, oder auch fragile Flüssigkeiten in der Nähe des Glasüberganges [13]. Jüngste
Messungen an unterkühltem Wasser in Nanoporen haben gezeigt, dass eine Verletzung der SE-Relation auch weit oberhalb
des Glasüberganges möglich ist [14]. Es wurde vermutet, dass
hierfür das Überschreiten der Widom-Linie verantwortlich ist
[15]. Eine hiervon sehr unterschiedliche Situation tritt bei Flüssigkeiten mit beschränkter intermolekularer Wechselwirkung
auf. Es zeigt sich hier am Beispiel des GCM-Liquids, dass die
klassische SE-Beziehung ebenfalls nicht gilt [16].
Nachdem hier kurz einige thermodynamische Eigenschaften
des GCM skizziert werden, sollen danach die Transportkoeffizienten betrachtet werden. Basierend auf einem hydrodynamischen Modell wird sodann eine Korrektur für die SE-Relation bei Flüssigkeiten mit beschränkter Wechselwirkung
dargestellt, die auf das GCM-Liquid angewendet werden kann.
3 • Thermodynamische Eigenschaften
Das GCM-Potential lautet
(2)
Φ(rij) = Φ0exp[-(rij / σ)2],
wobei rij der Abstand zweier Teilchen i und j ist, Φ0 und σ sind
die Höhe und Breite des Wechselwirkungspotentials. Φ0,σ und
√mσ2 / Φ0 haben die Dimension von Energie, Länge und Zeit
(m ist die Masse eines Teilchens). Dies führt zu dimensionslosen
Einheiten T' = kBT / Φ0, ρ' = Nσ3/ L3B und p' = ρσ3 / Φ0 für die Temperatur, die Dichte und den Druck (kB ist die Boltzmann-Konstante und LB ist die Länge der periodischen Simulationsbox). Für
die Berechnung des ziemlich dichten pVT-Phasendiagramms
wurden Standard-NVT-Monte-Carlo(MC)-Simulationen mit
N = 1728 Teilchen durchgeführt, weil diese in der Regel schneller als molekulardynamische (MD) Berechnungen sind.
In der Abbildung 1a und 1b ist der Druck als Funktion der Temperatur bei konstanter Dichte dargestellt. Für die Berechnung
der Ableitungen ist ein analytischer Ausdruck sehr nützlich.
Wie man aus den Abbildungen erkennt, hängt der Druck sehr
viel stärker von der Dichte als von der Temperatur ab. Deswegen gelang es nicht, einen einzigen Ausdruck als Zustandsgleichung (siehe [17, 18]) zu erstellen. Die ρ'-T' -Ebene musste
in zwei Bereiche unterteilt werden: Im unteren Bereich für ρ' <
2 wurde die Gleichung
(3)
8
8
ρ'(ρ', T') = ∑∑αij ρ' iT' j
i=1 j=1
verwendet mit den Ansatzparametern αij . Dieser einfache Ansatz war im oberen Bereich nicht erfolgreich. Hier wurde für
ρ' > 1.6 der Druck bei konstanter Temperatur gemäß
74
08_hda_querschnitt_gesamt.indb 74
18.03.2008 16:08:52 Uhr
Über die Stokes-Einstein-Beziehung für Fluidsysteme mit durchdringbaren Teilchen FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK
α'P
P'
5
TMD
4
p' =0.5
KTM
0.2
p' =2.0
p' =5.0
3
0
2
- 0.2
freezing line
1
- 0.4
DM
0
0
0.005
0.01
0.015
0.02
0.025
a)
0.03
T'
0
0.01
0.02
0.03
0.04
0.05
0.06
b)
0.07
T'
K'T
C'P
0.492
3.4
0.4905
p' =1.0
0.489
3.2
0.1663
3
2.8
0.166
p' = 3.0
2.6
0.1657
2.4
0.0999
p' =1.5
p' =3.0
2.2
0.0998
p' =5.0
2
p' = 5.0
0.0997
1.8
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
T'
c)
0
0.08
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
d)
T'
Abbildung 2 • a) p'-T'-Ebene des Phasendiagramms (TMD: Lage der Dichtemaxima; K TM: Lage der Kompressibilitätsminima; DM: Lage der Diffusionsminima);
b) thermischer Ausdehnungskoeffizient; c) isotherme Kompressibilität; d) Wärmekapazität bei konstantem Druck.
zweiten kritischen Punkt zugeordnet, der der Endpunkt eines
Flüssig-Flüssig-Übergangs erster Ordnung ist [18, 20]. Im Gedargestellt und danach die Parameter βi als Funktion der Tem- gensatz zu Wasser nähert sich die TMD-Linie der GCM-Flüssigkeit asymptotisch T' = 0 für sehr große Dichten (Drücke).
peratur
γi11
γi12
Die isotherme Kompressibilität
k
(5) βi (T') = ∑ γik T' +
√T' +
√T'
(6) K'T = 1 ∂ρ'
ρ' ∂p' T'
gefittet. In einem Übergangsbereich von 1.6 < ρ' < 2 sind beide
Zustandsgleichungen gültig.
und der thermische Ausdehnungskoeffizient
Die sich daraus ergebenden Druck-Isochoren p' (ρ', T') sind in
∂p'
(7) α'P = K'T
Abbildung 1 als durchgezogene Linien dargestellt. Die Über∂T' ρ'
einstimmung mit den Simulationsergebnissen ist recht gut. können ebenfalls aus der Zustandsgleichung berechnet werDer Verlauf zeigt ein ausgeprägtes Druckminimum, zu dem den. α'P und K'T sind in Abbildung 2b und 2c entlang von Isobaein Dichtemaximum bei konstantem Druck gehört. Hieraus ren für p' = 0.5, 2.0, 5.0 und p' = 1.0, 3.0, 5.0 dargestellt. Nach
kann die Temperaturlinie maximaler Dichte (TMD) konstruiert seiner Definition ist der thermische Ausdehnungskoeffizient
werden, indem die Punkte minimalen Drucks auf jeder Isocho- links von der TMD-Linie negativ. Die isotherme Kompressibire verbunden werden. Für Dichten kleiner als ungefähr 0,2 gibt lität zeigt ein ausgeprägtes Minimum ähnlich wie bei Wasser
es kein Dichtemaximum beim GCM. Der Verlauf der TMD-Li- und steigt danach bei Kühlung wieder an (Abbildung 2c). Im
nie in der p'-T'-Ebene ist in Abbildung 2a dargestellt. Das Vo- Gegensatz zu Wasser gibt es kein Maximum bei der Komlumen steigt bei Erwärmung und konstantem Druck links der pressibilität. Aus der Verbindungslinie der KompressibilitätsTMD-Linie ähnlich wie bei Wasser an. In guter Übereinstim- minima ergibt sich die K TM-Linie, die ebenfalls in Abbildung
mung zu [19] wechselt die TMD-Linie die Richtung der Ablei- 2a dargestellt ist. Wie bei Wasser und anderen Flüssigkeiten
tung bei einem Druck von p'= 1.3266 und einer Temperatur von mit anomalem Verhalten kreuzt die K TM-Linie die TMD-Linie
T' = 0.0181. Bei Wasser wird dieses Verhalten einem möglichen im Punkte ihrer vertikalen Tangente gemäß den Eigenschaften
(4)
9
ρ'(ρ', T'j ) = √ρ' ∑ βi (T'j ) ρ' i
i=0
10
3
k=0
4
(
)
(
)
75
08_hda_querschnitt_gesamt.indb 75
18.03.2008 16:08:54 Uhr
QUERSCHNITT 22
vacf
vacf
0.6
0.6
ρ' =0.4
0.5
T'=0.080
ρ'=1.0
0.5
0.4
0.4
0.3
0.3
0.2
T' =0.080
0.1
0.2
0
0.1
-0.1
T'=0.002
0
T' =0.008
-0.2
0
5
10
15
20
0
5
10
t'
15
20
t'
Abbildung 3 • Geschwindigkeitsautokorrelationsfunktion für verschiedene Temperaturen und Dichten.
der Zustandsgleichung (21). Ähnlich wie die TMD-Linie nähert
sich die K TM-Linie asymptotisch T' = 0 bei sehr großer Dichte.
Über α'P und K'T kann die Differenz der spezifischen Wärmen
bei konstantem Druck und konstantem Volumen berechnet
werden:
2
C'P – C'V = T'α'P
ρ'K'T
Die spezifische Wärme C'V ergibt sich aus der inneren Energie U' , die ebenfalls während der Simulationen ermittelt wird,
nach C'V = (∂U' / ∂T')v. Für die innere Energie wurde ebenfalls
ein analytischer Ausdruck U'(ρ',T') wie oben für die Zustandsgleichung beschrieben konstruiert, daraus ergab sich dann
C'P. In Abbildung 2d ist C'P entlang der Isobaren p' = 1.0, 3.0, 5.0
dargestellt. Im Gegensatz zu normalen Flüssigkeiten steigt
C'P genauso wie bei Wasser mit abnehmender Temperatur an.
Dieses ungewöhnliche Verhalten trat in einem großen Simulationsbereich auf. Für sehr hohe Temperaturen ergab sich ein
schwach ausgeprägtes Minimum für C'P.
(8)
4 • Transportkoeffizienten
Transportkoeffizienten werden eingeführt, indem ein Fluss j
(z.B. der Massen-, Impuls- oder Energiefluss) proportional zu
einem treibenden Kraftfeld E (z.B. zum Gradienten der Konzentration, der Strömungsgeschwindigkeit oder der Temperatur) gesetzt wird. Die Proportionalitätskonstante ist der zugehörige Transportkoeffizient κ:
(9)
j = κE
Die Ermittlung der Transportkoeffizienten ist innerhalb einer
phänomenologischen Theorie in der Regel nicht möglich, sie
müssen experimentell bestimmt werden, oder es wird eine
übergeordnete Theorie wie die Statistische Mechanik verwendet. Hier können Transportkoeffizienten mittels Gleichgewichtsmolekulardynamik unter Verwendung der Green-KuboRelation
∞
(10) κ ∞ ∫ j (t) · j (0) dt,
0
durch Integration der Autokorrelationsfunktion der Flussgröße j oder durch Anwendung der Einstein-Beziehung
(11) k ∞ lim d [F(t) – F(0)]2
dt
berechnet werden, wobei j durch
t→∞
j = dF
dt
gegeben ist. Die Klammern … stehen für den Mittelwert einer
möglichst großen Zahl unabhängiger Ereignisse. Wendet man
dies auf den Selbstdiffusionskoeffizienten D an, so wird nach
der Green-Kubo-Relation
(12)
∞
(13) D = 1 ∫ ∑ vi(t)· vi(0) dt
3N
und nach der Einstein-Beziehung
N
i=1
0
(14) D = lim 1 ∑[ri(t)– ri(0)]2
6Nt
N die Teilchenzahl des Ensembles, ri ist der Ortsvektor und
vi der Geschwindigkeitsvektor des Teilchens i. Die Anwendung
der Einstein-Beziehung für die Scherviskosität auf Systeme
mit periodischen Randbedingungen, wie dies bei molekulardynamischen Simulationen der Fall ist, verletzt die TranslationsN
t→∞
i=1
76
08_hda_querschnitt_gesamt.indb 76
18.03.2008 16:08:56 Uhr
Über die Stokes-Einstein-Beziehung für Fluidsysteme mit durchdringbaren Teilchen FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK
D'
η'
0.25
1.2
0.16
ρ'=1.2
1.0
0.2
0.8
0.5
0.3
1.0
0.12
0.15
0.8
0.1
0.08
0.5
0.05
0.3
0
0.04
0
0.02
0.04
0.06
a)
0.08
T'
0.3
0.5
b)
0.8
1.0
0.02
0.04
0.06
0.08
T'
ρ'=1.2
Abbildung 4 • a) Selbstdiffusionskoeffizient D' als Funktion der Temperatur für verschiedene Dichten; D' wächst monoton mit der Temperatur.
b) Temperaturabhängigkeit der Scherviskosität für verschiedene Dichten. Die Viskosität ändert sich stark in der Nähe des Übergangs zum festen Zustand. Die Lage
der Erstarrungstemperatur für die unterschiedlichen Dichten ist als schmale dünne Linie am linken unteren Rand angegeben.
Invarianz-Bedingung. Die Bestimmung der Scherviskosität η
mit Hilfe der Green-Kubo-Relation gelingt durch Integration
der Drucktensor-Autokorrelationsfunktion:
∞
(15) η = V ∫ Pxy(t) · Pxy (0) dt
3kBT
mit der Komponente des Drucktensors
0
(16) Pxy = 1 ∑ mi vxi vyi + ∑ rxik f yik
V
.
V ist das Volumen des Systems. Für die Berechnung der Wärmeleitfähigkeit λ wird aus demselben Grund nur die GreenKubo-Relation verwendet; durch Integration der WärmeflussAutokorrelationsfunktion erhält man
[
i
i≠k
]
∞
(17) λ = V ∫ S(t) · S(0) dt
3kBT2
mit
0
(18) S = 1
V
Hierbei ist
[∑ e v
i
i
i
+ 12 ∑ rik ( f ik · vk )
.
i≠k
]
(19) ei = 1 mvi2+ ∑ ϕ( rik)– e
2
die momentane Exzessenergie des Teilchens i und e die mittlere Energie. Die Wechselwirkungskraft f ik zwischen den Teilchen i und k ergibt sich aus dem Wechselwirkungspotential.
Die Transportkoeffizienten können bestimmt werden, wenn
die Ortskoordinaten und Geschwindigkeitsvektoren für einen
hinreichend langen Zeitraum bei der molekulardynamischen
Simulation ausgewertet werden.
In der Abbildung 3 ist die Geschwindigkeits-Autokorrelationsfuntion für das GCM-Fluid bei verschiedenen Temperaturen
i≠k
und Dichten dargestellt. Die Größen weisen verschiedene Anomalien auf. Das Abklingen der Geschwindigkeits-Autokorrelationsfunktion zeigt bei einer Dichte von 0,4 ein Verhalten, wie
man es bei gewöhnlichen dichten Flüssigkeiten beobachten
kann. Bei der höheren Dichte von 1 fällt die Funktion nahezu
exponentiell mit der Zeit ab, wie man dies typischerweise bei
dichten Gasen beobachtet. Dies ist eine der Eigenarten des
GCM-Fluids: Bei Dichteerhöhung nähert sich das System immer mehr dem Gaszustand, im Grenzfall von unendlich hoher Dichte spricht man vom „infinite-density ideal-gas-limit“.
Zusätzlich sind besonders bei der Geschwindigkeits- (und der
Wärmefluss-Autokorrelationsfunktion) hochfrequente Schwingungen überlagert, die bei gewöhnlichen Flüssigkeiten ebenfalls nicht zu beobachten sind.
In der Abbildung 4 ist der dimensionslose Selbstdiffusionskoeffizient D' und die Scherviskosität η' gemäß
ϕ0
(20) η = √mϕ0 η' , D = σ m D'
√
σ2
dargestellt. Der Selbstdiffusionskoeffizient wächst mit steigender Temperatur und außerdem ergibt sich als anomaler
Effekt ein Anwachsen des Koeffizienten mit steigender Dichte,
vgl. [5].
Die Viskosität fällt zwischen ρ' = 0,3 und 1 stark ab, wenn die
Temperatur bei konstanter Dichte erhöht wird, durchläuft ein
Minimum und steigt dann wieder an. Die starke Änderung in
der Nähe des Erstarrungspunktes wird schwächer, wenn
das System zusammengedrückt wird. In diesem Bereich tritt
„reentrant melting“ auf. Bei einer Dichte von 1,0 bzw. 1,2 wächst
die Viskosität monoton mit der Temperatur und der starke ne77
08_hda_querschnitt_gesamt.indb 77
18.03.2008 16:08:57 Uhr
QUERSCHNITT 22
5 • Hydrodynamisches Modell
Für die stationäre Strömung um eine Kugel mit dem Radius a
können bei kleiner Geschwindigkeit die linearisierten NavierStokes-Gleichungen zusammen mit der Kontinuitätsgleichung
verwendet werden:
0.4
(23)
ρ' = 0.8
0.2
growing T'
ρ' = 0.5
·v = 0
p ist der Druck (hierbei soll p → 0 für u → 0 sein, u ist die Geschwindigkeit weit weg von der Kugel) und v ist der Geschwindigkeitsvektor.
Da sich Teilchen mit beschränktem Wechselwirkungspotential gegenseitig durchdringen können, soll hier eine Strömung
innerhalb der Kugel möglich sein. Innerhalb der Kugel wird
diese durch einen Widerstand bestimmt, der linear zur Geschwindigkeit sein soll:
ρ' = 1.0
0.3
p = ηΔv
∆
ρ' = 1.2
(22)
∆
0.5
∆
D' η'/T'
(21)
p = –κv
Diese Beziehung ersetzt die Navier-Stokes-Gleichungen innerhalb der Kugel, wobei κ eine Konstante ist.
In Kugelkoordinaten r, θ, φ wird für (21) folgender Ansatz [26]
verwendet
0.1
ρ' = 0.3
0.05
0.08
0.11
0.14
0.17
η'
Abbildung 5 • D'η' / T' ist als Funktion der Scherviskosität η' dargestellt, wobei
die Dichte bei jeder Kurve konstant ist; T' ändert sich von 0.006 bis 0.08 für ρ' =
0,3 und von 0.002 zu 0.08 für ρ' = 1.2.
gative Gradient verschwindet, weil die Erstarrungstemperatur
sich bei hoher Dichte immer mehr dem Wert Null annähert [2225]. Im Gebiet des „reentrant melting“ bleibt das System für
alle Dichten flüssig.
Verwendet man diese Ergebnisse zur Ermittlung des StokesEinstein-Faktors D'η' / T', so ergibt sich der in Abbildung 5 dargestellte Verlauf, wobei S’ als Funktion von η' für verschiedene
Dichten von ρ' = 0,3 bis 1,2 dargestellt ist. Diese Darstellung erklärt sich aus dem hydrodynamischen Modell. Die Temperatur
ändert sich von T’= 0,006 bis 0,08 für ρ' = 0,3 und von T’= 0,002
bis 0,08 für ρ' = 1,2 , wie durch den Pfeil angegeben.
In Abbildung 5 sind offensichtlich zwei unterschiedliche Verläufe bei jeder Kurve zu unterscheiden: Im einen Bereich ist
S’ nahezu unabhängig von der Viskosität η' (dies wird im weiteren als der klassische Zweig der Kurve bezeichnet). Im anderen Bereich wächst S’ linear mit der Viskosität η', hier ist
die Stokes-Einstein-Relation offensichtlich verletzt (der nichtklassische Zweig). Es wurde bereits dargestellt, dass die speziellen Eigenschaften des GCM-Potentials für die unterschiedlichen Anomalien der thermodynamischen Größen und der
Transportkoeffizienten verantwortlich sind.
Im folgenden wird nun gezeigt, dass der eigentümliche Verlauf
für S’ ebenfalls durch die mögliche Durchdringung der Teilchen
erklärt werden kann. Hierzu werden die gleichen Annahmen
wie für die Herleitung der klassischen Stokes-Einstein-Beziehung verwendet, und man findet dann eine Beziehung, die den
linearen Verlauf für S’ mit der Viskosität enthält.
(24) vr = u · f(r) · cosθ, vθ = –u ·
( 2r f'(r) + f(r)) · sinθ
(äußere Lösung), die Kontinuitätsgleichung ist identisch erfüllt.
Bildet man die Rotation von (21), so wird
(25) 4f' – 4rf'' – 1 r3 f'''' = 0
2
mit der Lösung
(26) f(r) = C1 + C2r2 + C3 / r + C4 / r3
wobei C1 = 1 und C2 = 0, weil f(∞) = 1. Für die innere Lösung wird
ein ähnlicher Ansatz verwendet, wobei f(r) durch g(r) ersetzt ist.
Dann folgt aus Gleichung (23)
(27) rg'' + 4g' = 0
mit der Lösung
(28) g(r) = D1 + D2 / r3
Da die Geschwindigkeit innerhalb der Kugel endlich bleiben
muss, wird D2 = 0. Für die übrigen drei Konstanten D1, C3 und
C4 werden die drei Bedingungen, dass die Geschwindigkeitskomponenten vr, vθ und der Druck p bei r = a stetig sein müssen,
verwendet, und man erhält
2η
a5κ
.
(29) C3 = – 3κa3 , C4 =
, D1 =
2κa2 + 3η
2κa2 + 3η
2κa2 + 3η
Integriert man nunmehr
(30) σrr cosθ – σrθ sinθ =
cosθ (– p + 2η ∂vr ) – η sinθ ( 1r ∂vr + ∂vθ – rvθ )
∂θ
∂r
∂r
über die Oberfläche der Kugel bei r = a, so ergibt sich die Kraft
auf die Kugel
.
(31) F = 12u πηκa3
2κa2 + 3η
Für κ = 0 gibt es keinen Widerstand, und es wird F = 0; für κ → ∞
gibt es keine Strömung innerhalb der Kugel und es gilt die berühmte Formel von Stokes: F = 6πηau
In der Abbildung 6 sind die Stromlinien der Lösung dargestellt:
Das linke Bild zeigt das Resultat für kleines κ, in diesem Falle wird die Strömung nur wenig durch die Kugel gestört. Das
78
08_hda_querschnitt_gesamt.indb 78
18.03.2008 16:08:59 Uhr
Über die Stokes-Einstein-Beziehung für Fluidsysteme mit durchdringbaren Teilchen FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK
Abbildung 6 • Stromlinien der berechneten Strömung; kleines κ
(κa2 / uη = 1) links, großes κ (κa2 / uη = 100) rechts.
rechte Bild zeigt die Lösung für großes κ, die Stromlinien um
die Kugel sind wesentlich dichter als innerhalb, d.h. die Strömung innerhalb der Kugel ist nur sehr schwach. Die Stromlinien innerhalb der Kugel ergeben sich als parallele Linien,
weil die Geschwindigkeit dort konstant ist. Bezeichnet man
die Strömungsrichtung mit dem Einheitsvektor e, dann ist der
Strömungsvektor innerhalb der Kugel:
3ηu
(32) v =
e
2κa2 + 3η
Folgt man nunmehr der Argumentation von Einstein, so ist der
Zusammenhang zwischen Diffusionskoeffizient und treibender
Kraft F der suspendierten Teilchen durch
Falle des GCM-Fluids. Die beiden unterschiedlichen Zweige
der Kurven lassen sich leicht erklären. Auf dem klassischen
Zweig ist D'η' / T' nahezu konstant, was bedeutet, dass der Einfluss der Durchdringung der Teilchen gering ist. Dies ist bei
kleiner Dichte bzw. kleiner Temperatur der Fall. Beim nichtklassischen Zweig wächst D'η' / T' linear mit η' , wie sich dies
aus Gleichung (36) ergibt, d.h. der Einfluss der Durchdringung
wird dominant. Dies ist in guter Übereinstimmung mit [4] und
den Ergebnissen für die anderen Anomalien des GCM-Modells:
Wenn die Dichte größer wird, wird die gegenseitige Durchdringung der Teilchen immer wichtiger. Bei kleinen Dichten bis ungefähr ρ' ≈ 0.3, gibt es kaum Einfluss der Durchdringung. Bei
höheren Dichten ab ρ' = 1.2 gibt es wegen der Durchdringung
(33) DF = kB Tu
keinen klassischen Zweig. Für die Dichten dazwischen gibt es
gegeben, wobei u die Teilchengeschwindigkeit in der Suspen- offensichtlich beide Zweige.
Es ist nicht selbstverständlich, dass κ' und a' konstant sind.
sion ist. Man kann nun (31) verwenden, um F zu eliminieren:
Es ist durchaus vorstellbar, dass die Struktur des Systems
Dη
2κa2+ 3η
(34)
= kB
T
zumindest von der Dichte abhängt und damit den Widerstand
12πκa3
beeinflusst. Schreibt man Gleichung (36) in der Form
Mit dem dimensionslosen Widerstandskonstanten κ' , wobei
D'η'
√mϕ0
(37)
= c + m · η' ,
(35) κ =
κ' ,
T'
σ2
so zeigen die Ergebnisse der Abbildung 5, dass c zumindest
wird
schwach von der Dichte abhängt. Es scheint aber außerdem
D'η' 2κ'a'2+ 3η'
(36)
=
.
T'
so zu sein, dass die Steigungen des nichtklassischen Zweigs
12πκ'a'3
nahezu konstant sind. Von diesen Steigungen kann man einen
Falls κ' sehr groß wird, gilt D'η' / T' = 1 / (6πa') = const.
Es zeigt sich, dass die klassische Stokes-Einstein-Relation Wert für den Widerstandskoeffizienten ablesen:
nicht nur im Falle der Diffusion großer Teilchen in einer Lö(38) κ'a'3 ≈ 0.028 .
sung gültig ist, sondern auch im Falle der Selbstdiffusion [12].
Offensichtlich gilt dies auch für die erweiterte Beziehung im
79
08_hda_querschnitt_gesamt.indb 79
18.03.2008 16:09:00 Uhr
QUERSCHNITT 22
6 • Zusammenfassung und Ausblick
Das GCM-Liquid zeigt eine Menge ungewöhnlicher Eigenschaften, weil bei diesem Modell eine gegenseitige Durchdringung der Teilchen möglich ist. Durchdringung ist ebenfalls bei
Molekülen möglich, die aus sehr vielen Atomen bestehen und
im Bereich der „weichen kondensierten Materie“ betrachtet
werden. Hier wird das GCM als effektives Modellpotential verwendet.
Zunächst wurden die thermodynamischen Eigenschaften des
Modells untersucht. Auf einem ziemlich dichten Netz im Phasenraum wurden Monte-Carlo-Simulationen durchgeführt und
hiermit wurde eine recht genaue Zustandsgleichung konstruiert. Hierbei konnten sehr viele Ähnlichkeiten zu Flüssigkeiten,
die Anomalien aufweisen, wie z.B. Wasser, aufgezeigt werden.
Die TMD-Linie, die die Begrenzung des Bereichs mit negativer
thermischer Ausdehnung angibt, und die K TM-Linie, die die
Berandung des Bereichs mit anomalem Anstieg der isothermen Kompressibilität beschreibt, zeigen beide einen Punkt mit
vertikaler Steigung. Hierbei schneidet die K TM-Linie die TMDLinie genau in dem Punkt vertikaler Steigung, wie dies aus
thermodynamischen Überlegungen vorhergesagt wurde. Die
spezifische Wärme bei konstantem Druck weist anomales Verhalten in einem großen Bereich des Phasenraums auf. Untersuchungen der Paarverteilungsfunktion zeigen, dass sich das
GCM bis zu einer dimensionslosen Dichte von etwas 0,23 wie
eine normale Flüssigkeit verhält. Für höheren Dichten wird die
Ordnung des Systems immer schwächer; dies weist auf eine
Annäherung zum „Idealgasverhalten“ beim Grenzwert unendlich hoher Dichten hin.
Zur Untersuchung der Transporteigenschaften wurden molekulardynamische Simulationen durchgeführt. Anomales Diffusionsverhalten tritt für Dichten oberhalb von ungefähr 0,33
auf. Im Gegensatz zu normalen Flüssigkeiten wird die Mobilität
der Teilchen bei steigender Dichte erhöht, weil die abstoßende
Kraft zwischen den Teilchen schwächer wird und die Teilchen
sich durchdringen können. Die Geschwindigkeitsautokorrelationsfunktion zeigt ebenfalls die Eigenschaft vom Übergang des
einfachen dichten Liquids zum dichten Gas bei Erhöhung der
Dichte; dies deutet ebenfalls eine Annäherung zum „Idealgasverhalten“ bei „idealer Unordnung“ an.
Die Stokes-Einstein-Relation ist beim GCM-Liquid ebenfalls
verletzt. Betrachtet man Flüssigkeiten mit beschränktem
Wechselwirkungspotential, die sich gegenseitig durchdringen
können, so findet man einen neuen Zusammenhang für die
Stokes-Einstein-Relation, bei der S linear mit der Viskosität
wächst. Dieses einfache hydrodynamische Modell beschreibt
den Unterschied zwischen nicht durchdringbaren und durchdringbaren Teilchen und ist vom speziellen Wechselwirkungspotential unabhängig. Dieses Verhalten wird auch vom GCMLiquid dargestellt.
Die molekulardynamischen Simulationen und Untersuchungen
am GCM-Liquid werden weitergeführt. Z.Z. werden analytische
Ausdrücke für die Darstellung der Transportkoeffizienten konstruiert. Diese Ausdrücke sind wichtig, weil es theoretisch
möglich sein soll, Anomalien der Koeffizienten durch Betrachtung der Exzessentropie vorherzusagen. Diese Zusammenhänge wären von grundsätzlicher Bedeutung für die Beschreibung und Voraussage von makroskopischen Eigenschaften.
80
08_hda_querschnitt_gesamt.indb 80
18.03.2008 16:09:01 Uhr
Über die Stokes-Einstein-Beziehung für Fluidsysteme mit durchdringbaren Teilchen FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK
Außerdem werden Nichtgleichgewichtssimulationen durchgeführt, bei denen Scherfelder oder Temperaturgradienten aufgebracht werden. Diese Untersuchungen sind wichtig für die
Abhängigkeit z.B. der Viskosität von der Scherung, Effekte die
in der Realität von großer Bedeutung sind, experimentell aber
oft nur sehr schwierig oder gar nicht untersucht und abgetrennt werden können.
P. Lindner, Macromolecules 34 (2001) 2914
9 M. Ballauf, C.N. Likos, Angew. Chem. Int. Edit. 43 (2004)
2998
10 A.A. Louis, P.G. Bolhuis, J.P., Phys. Rev. E, 62 (6), Part A
(2000) 7961
11 A. Einstein, Ann. Phys. 17, 549 (1905)
12 J.A. Hodgdon und F.H. Stillinger, Phys. Rev. E 48, 207
(1993)
13 P.G. Debenedetti und F.H. Stillinger, Nature (London) 410
(2001), 259
Danksagung •
Große Anteile der Simulationen wurden am RUBENS-Clus- 14 S.-H. Chen, F. Mallamace, C.-Y. Mou, M. Broccio, C. Corsaro, A. Faraone und L. Liu, Proc. Natl. Acad. Sci. USA 103
ter der Universität Siegen durchgeführt. Wir möchten Herrn
(2006), 12974
Michael Weitzel und Herrn Roland Reichardt herzlich für ihre
Unterstützung bei der Nutzung des Clusters danken. Ebenfalls 15 P. Kumar, Proc. Natl. Acad. Sci. USA 103 (2006), 12955
wollen wir uns bei Herrn Thomas Michaelis (Fachbereich MK) 16 H.-O. May und P. Mausbach, Phys. Rev E 76 (2007), 031201
17 P. Mausbach, H.O. May, Fluid Phase Equilibria 214 (2003) 1
für seine Hilfe und Unterstützung bedanken.
18 P.H. Poole, I. Saika-Voivod, F. Sciortino, J. Phys.: Condens.
Matter 17 (2005) L431
Literatur •
19 F.H. Stillinger, D.K. Stillinger, Physica A 244 (1997) 358
1 F.H. Stillinger, J. Chem. Phys. 65 (1976) 3968
20 O. Mishima, H.E. Stanley, Nature 396 (1998) 329
2 F.H. Stillinger, T.A. Weber, J. Chem. Phys. 68 (1978) 3837
21 S. Sastry et al., Phys. Rev. E 53 (1996) 6144
3 P. Mausbach, H.-O. May, Proc. Appl. Math. Mech. 5 (2005),
22 A. Lang, C.N. Likos, M. Watzlawek, H. Löwen, J. Phys.:
685
Condens. Matter 12 (2000) 5087
4 P. Mausbach, H.-O. May, Proc. Appl. Math. Mech. 6 (2006),
23 F.H. Stillinger, J. Chem. Phys. 65 (1976), 3968
571
24 P.V. Giaquinta, F. Saija, ChemPhysChem. 6 (2005), 1768
5 P. Mausbach, H.-O. May, Fluid Phase Equilib. 249 (2006), 17
6 P. Mausbach, H.-O. May, 16th Symposium on Thermophysi- 25 S. Prestipino, F. Saija, P.V. Giaquinta, Phys. Rev. E 71 (2005),
050102(R)
cal Properties (Boulder, Colorado, July 30 - August 4, 2006)
26 A. Sommerfeld, Vorlesungen über Theoretische Physik,
7 C.N. Likos, Physics Report 348 (2001) 267
Band II, Akademische Verlagsgesellschaft, Leipzig 1970
8 C.N. Likos, M. Schmidt, H. Löwen, M. Ballauff, D. Pötschke,
81
08_hda_querschnitt_gesamt.indb 81
18.03.2008 16:09:01 Uhr
QUERSCHNITT 22
WEITERGEHENDE
ABWASSERBEHANDLUNG
DAMIT ES IM KANAL NOCH SAUBERER WIRD!
Autoren •
Prof. Dr.-Ing. habil. J. Unger, FB MK
Dipl.-Chem. S. Michling, FB B
1 • Einleitung
Abwässer aus Küchen und der Lebensmittelindustrie sind organisch durch Öle und Fette hoch belastet.
Nicht abgebaute Öle und Fette verursachen in Form von schwachen Säuren und durch Seifenbildung
im Kanalsystem bis hin zur Kläranlage sowohl ein erhöhtes Unfallrisiko für das Personal in den begehbaren Kanälen als auch ökonomisch nicht vernachlässigbare Folgekosten, um die Abwasserentsorgung
nachhaltig sicher aufrechterhalten zu können. Diese lipophilen Stoffe gilt es deshalb zu reduzieren. Zum
Erreichen dieses Ziels wurden bisher Fettabscheider eingesetzt, die allein gravimetrisch eine Abscheidung (physikalische Abtrennung) der im Schwerefeld leicht aufsteigenden Öl- und Fettanteile bewirken
(Abbildung 2).
Abbildung 0 • Detailansicht Bioreaktor
82
08_hda_querschnitt_gesamt.indb 82
18.03.2008 16:09:02 Uhr
Weitergehende Abwasserbehandlung – damit es im Kanal noch sauberer wird! FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK
Fett, Öl
gravimetrisch
behandeltes
Abwasser mit
Fett und Öl in
emulgierter Form
Zulauf
Sinkstoffe
Abbildung 1 • Gravimetrischer Fettabscheider, Schnitt durch Anlage (links), Schematische Darstellung (rechts)
a
b
c
Abbildung 2 • Gesamtrückhaltesystem bestehend aus Fettabscheider (a), Bioreaktor (b) und Filter (c), ACO Passavant GmbH
Diese Art der Abscheidung lipophiler Stoffe kann nur eine
Vorabscheidung sein. Eine weitergehende Behandlung zum
Abscheiden auch der emulgierten Fett- und Ölanteile ist allein
mit Hilfe biologischer Mittel zu erreichen. Denkbar wäre hier
der Einsatz von Enzympräparaten direkt im Fettabscheider
mit dem Ziel, die im Abwasser noch vorhandenen emulgierten
Fette und Öle vollständig durch Mineralisierung in Kohlendioxid und Wasser umzuwandeln. Diesbezügliche Experimente
[ 1, 2, 3 ] haben aber gezeigt, dass dieses Ziel im Fettabscheider
selbst nicht erreicht werden kann. Ganz im Gegenteil werden
bereits gravimetrisch abgeschiedene Anteile wieder mobilisiert, so dass sich die Ablaufwerte durch den Einsatz von
Enzymen sogar verschlechtern. Verstärkt wird dieser Effekt,
wenn die eingesetzten biologischen Mittel zudem Tenside enthalten. Wenn im Fettabscheider überhaupt eine gegenüber der
gravimetrischen Abscheidung verbesserte Situation erreicht
werden soll, kann dies allein mit Hilfe von Mikroorganismen
geschehen. Dies setzt aber voraus, dass diese Mikroorganismen sowohl die nicht gravimetrisch abgebauten emulgierten
als auch die zusätzlich mobilisierten Fett- und Ölanteile vollständig abbauen. Dem steht aber das in Fettabscheidern üblicherweise nicht abbaufördernde Milieu entgegen. Die in der
Regel zu hohen Temperaturen, zu niedrigen pH-Werte und
zu geringen Sauerstoffkonzentrationen liegen außerhalb des
Arbeitsfensters der aeroben Mikroorganismen, selbst für die
natürlichen im Abwasser vorkommenden an den Fettabschei-
der angepassten Mikroorganismen. Deshalb sollte der Fettabscheider klassisch allein gravimetrisch ohne biologische
Zusatzmittel betrieben und eine gewünschte weitergehende
Reduzierung der emulgierten lipophilen Reststoffe durch eine Weiterbehandlung bewerkstelligt werden, die sich an die
Vorabscheidung anschließt, die keine negative Rückwirkung
auf die Ablaufwerte des allein gravimetrisch arbeitenden Fettabscheiders selbst hat. Dieses Ziel lässt sich mit Hilfe eines
nachgeschalteten aeroben Bioreaktors (Abbildung 2) erreichen, dessen Milieu unabhängig von den klassischen Fettabscheiderverhältnissen gezielt eingestellt werden kann. Um
schließlich noch im Reaktor frei schwimmende Biomasse beim
Abfluss in den Kanal zurückhalten zu können, ist zusätzlich ein
Filter einzubauen.
Durch die strikte Trennung der Effekte (physikalische Abscheidung im Fettabscheider, biologischer Abbau im Bioreaktor,
mechanische Zurückhaltung durch Filter) kann jedes Teilsystem verfahrenstechnisch so optimal gestaltet werden, dass
insgesamt Ablaufwerte unter 100 mg /l an lipophilen Stoffen zu
erreichen sind.
Damit der Bioreaktor seine Aufgabe sicher erfüllen kann und
sich der Filter dauerhaft ohne Verstopfen betreiben lässt, sind
grundlegende verfahrenstechnische Aufgaben zu lösen.
Hierbei ist insbesondere das biologische Abbauverhalten der
im Bioreaktor eingesetzten Mikroorganismen unter realen
Abwasserbedingungen zu testen, um auch Hemmungen er83
08_hda_querschnitt_gesamt.indb 83
18.03.2008 16:09:12 Uhr
QUERSCHNITT 22
ACO BIO PLUS
Abluft
Bioreaktor
Probenentnahme
Emulsionsvorrichtung
Dosiervorrichtung
Luftkompressor
Pumpe
Beobachtungsfenster
Abbildung 3 • Bioreaktor zum Testen des Abbauverhaltens lipophiler Stoffe
Abbildung 4 und 5 • Mikroorganismen zum Abbau lipophiler Stoffe im Konzentrat
ACO BIO PLUS (links), Aufwuchsträger für die Mikroorganismen (rechts)
kennen zu können, die einem gezielten zeitlichen Abbau entgegenwirken. Zur Vermeidung dieser Hemmungen sind präventive und verfahrenstechnische Maßnahmen zu entwickeln.
Auch die Weiterentwicklung der Messverfahren ist hier von
signifikanter Bedeutung.
Um den Filter, der ebenfalls reduzierend auf die lipophilen
Stoffe wirkt, dauerhaft betreiben zu können, wird eine pneumatische Rückspülung untersucht, die einen sich selbständig
einstellenden Pulsationseffekt nutzt.
Die genannten Arbeiten sind Forschungsgegenstand eines
Projekts, das gemeinschaftlich von den Fachbereichen MK und
B der h_da und dem Fachbereich Physik der TU Darmstadt zusammen mit der ACO Passavant GmbH betrieben wird.
chen (Abbildung 4) und sind von der Gattung Bacillus [1]. Zum
Siedeln der Mikroorganismen werden Aufwuchsträger der
Form nach Abbildung 5 verwendet, die im Wirbelbett des Reaktors schleichend umlaufen, das verknüpft mit der Belüftung
zur notwendigen Sauerstoffversorgung der aeroben Mikroorganismen (Abbildung 6) erzeugt wird.
2 • Bioreaktor
In Abbildung 3 ist der Bioreaktor zum Testen des Abbauverhaltens lipophiler Stoffe dargestellt. Mit der Dosier- und Emulsionsvorrichtung lassen sich Modellabwässer erzeugen. Der
Abbau der lipophilen Stoffe wird dann durch Zugabe (Animpfen) von Enzymen und Mikroorganismen initiiert. Hierzu wird
das Konzentrat ACO BIO PLUS verwendet, das neben den zum
Abbau erforderlichen Mikroorganismen auch Enzyme enthält,
so dass der Fressprozess der Mikroorganismen ohne sofortige eigene Enzymproduktion der Mikroorganismen unverzögert einsetzen kann.
Die Mikroorganismen lassen sich mikroskopisch sichtbar ma-
3 • Abbauversuche
Die folgenden Abbildungen zeigen exemplarisch für unterschiedliche Modellabwässer das biologische Abbauverhalten
für lipophile Stoffe.
Beim ersten Test wurde als Abwasser bewusst ein Monosubstrat (Wasser und Sonnenblumenöl) gewählt, um zeigen zu
können, dass das zum Animpfen verwendete Konzentrat ACO
BIO PLUS auch beim Fehlen sonstiger Nährstoffe im Substrat
geeignet ist, gute Abbauleistungen zu erbringen. Bei der Ermittlung der zur jeweiligen Beprobungszeit vorliegenden Konzentration an lipophilen Stoffen Slip(t) lieferten die damit beauftragten Labore für identische Proben erheblich voneinander
abweichende Werte, obwohl alle Labore mit der gleichen Analysenmethode DEV H56 arbeiten. Entsprechend ergeben sich
stark voneinander abweichende Abbaugradienten Ṡlip. Die aus
den Abbaukurven (Abbildung 7, Abbildung 8) abzulesenden
Abbaugradienten unterscheiden sich um den Faktor 4. Die Abbauzeiten T100 bis zum Erreichen eines Grenzwerts Slip = SlipG =
100 mg /l liegen somit im Bereich 4 h ≤ T100 ≤ 12.
84
08_hda_querschnitt_gesamt.indb 84
18.03.2008 16:09:18 Uhr
Weitergehende Abwasserbehandlung – damit es im Kanal noch sauberer wird! FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK
Abbildung 6 • Gesamtansicht des Bioreaktors
85
08_hda_querschnitt_gesamt.indb 85
18.03.2008 16:09:20 Uhr
QUERSCHNITT 22
Slip (mg/l)
Slip (mg/l)
1400
1400
1200
1200
1000
1000
800
800
600
600
Ṡlip = - 46 mg
400
400
Ṡlip = - 160 mg/l h
200
200
0
0
0
4
8
12
16
20
24
28
32
36
40
44
0
48
4
8
12
16
20
24
28
32
36
40
44
t (h)
Abbildung 7 • Abbauversuch, Sonnenblumenöl I, Slip,Füll = 1200 mg /l,
Slip (0) = 690 mg /l, 2 ml /l ACO BIO PLUS I, Probenwerte (HD-Labor, Michling,
Darmstadt)
48
t (h)
Abbildung 8 • Abbauversuch, Sonnenblumenöl I, I, Slip,Füll = 1200 mg /l,
Slip (0) = 740 mg /l, 2 ml /l ACO BIO PLUS I, Probenwerte (Wessling, Darmstadt)
Slip (mg/l)
Slip (mg/l)
250
250
200
200
Ṡlip = -28 mg / l h
150
150
Ṡlip = -15 mg / l h
100
100
Ṡlip = -10 mg / l h
50
50
0
0
0
6
12
18
24
30
36
42
48
54
0
60
6
12
18
24
30
36
42
48
54
Abbildung 9 • Enzym- und Wachstumstest mit zyklischer Ölzufuhr,
Ölzufuhrzeiten tÖl = [0, 18, 36] h, Sonnenblumenöl II, Slip,Füll = 1200 mg /l,
Slip (0) = 220 mg /l, ACO BIO PLUS II (schaumreduzierend),
Probenwerte (Wessling, Darmstadt)
60
t (h)
t (h)
Abbildung 10 • Abbaugradienten des Enzym- und Wachstumstests mit zyklischer
Ölzufuhr
Slip (mg/l)
Slip (mg/l)
70
20
60
15
50
40
10
30
S = -8mg/lh
20
5
10
Nichtnachweisbarkeitsbereich
0
0
0
5
10
15
20
25
t (h)
Abbildung 11 • Abbauversuch, synthetisches Substrat NPB, Slip, Füll = 340 mg /l,
Slip (0) = 70 mg /l, 2 ml /l ACO BIO PLUS I, Probenwerte (HD-Labor, Michling,
Darmstadt)
0
6
12
18
24
30
36
42
48
54
60
66
t (h)
Abbildung 12 • Enzym- und Wachstumstest mit zyklischer NPB-Zufuhr
NPB-Zufuhr von jeweils 150 g NPB in Zeitenschritten [0, 24, 36, 48, 60] h
2 ml /l ACO BIO PLUS II (schaumreduzierend), Slip, Füll = 1200 mg /l
Probenwerte (Wessling, Darmstadt)
86
08_hda_querschnitt_gesamt.indb 86
18.03.2008 16:09:25 Uhr
Weitergehende Abwasserbehandlung – damit es im Kanal noch sauberer wird! FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK
Um das Wachstum der Mikroorganismen und damit verknüpft
auch die Eigenenzymproduktion der Mikroorganismen sichtbar
machen zu können, wurde der Langzeittest nach Abbildung 9
durchgeführt. Man erkennt wie zuvor die sofortige Abbauwirkung durch die im Impfkonzentrat ACO BIO PLUS vorhandenen
Start-Enzyme und Mikroorganismen. Eine zyklische Zudosierung gleicher Ölmengen wie zum Abbaubeginn führt aber nicht
mehr auf den Startwert zurück. Offensichtlich hat sich die Zahl
der Mikroorganismen erhöht, die zugleich hinreichend eigene
Enzyme produzieren, die die lipophilen Stoffe auch weiterhin
so zerkleinern, dass diese durch die Zellwände der Mikroorganismen diffundieren und schließlich als Nahrung genutzt
werden können. Asymptotisch strebt das biologische System
gegen Maximalwerte, die deutlich unter 100 mg /l liegen. Dabei
zeigt sich auch, dass die Abbaugradienten mit abnehmender
Substratkonzentration kleiner werden (Abbildung 10). Einerseits ist deshalb eine vollkommene Reinigung allein durch
biologischen Abbau unmöglich, andererseits steigt die Reinigungsleistung mit zunehmender Verschmutzung an lipophilen
Stoffen an, so dass ein sich selbsthelfendes Verhalten vorliegt.
Um auch das Anspringen der Enzyme und Mikroorganismen
des Impfkonzentrats ACO BIO PLUS bei einem realistischeren
Abwasser testen zu können, wurde für weitere Experimente
anstelle des Sonnenblumenöls eine Natrium-Pepton-Bouillon
(NPB) verwendet, mit der etwa die Eigenschaften kommunaler
Abwässer nachgebildet werden können.
Die Messergebnisse nach Abbildung 11 zeigen, dass selbst bei
niedrigen Substratkonzentrationen der Abbau in einer Abbauzeit T < 10 h nahezu vollständig erfolgt.
Eine Wiederholung des Enzym- und Wachstumstests, jetzt
aber mit zyklischer NPB-Zugabe, zeigt Abbildung 12.
Qualitativ ist der Verlauf der Probenwerte verständlich. Der
Startwert nach der ersten NPB-Zufuhr bleibt unverändert erhalten (Reaktor mit laufender Belüftung aber ohne Animpfung
mit ACO BIO PLUS). Nach Zugabe von ACO BIO PLUS erfolgt
eine prompte Reduzierung der lipophilen Stoffe, die sich bis
zur nächsten NPB-Zugabe fortsetzt. Danach erhöht sich der
Abbau / Zeit und erschöpft sich dann mit Eintritt in den Nichtnachweisbarkeitsbereich.
Unverständlich sind dagegen die extrem niedrigen Substratwerte. Obwohl die zur Zeit t = 0 zugeführte NPB-Menge mit 150
g gegenüber der im einzyklischen Abbautest nach Abbildung
11 mit 60 g um den Faktor 2,5 gesteigert wurde, ergeben sich
Laborwerte die um den Faktor 5 kleiner ausfallen. Dies kann
einerseits wieder eine Folge der in verschiedenen Labors offensichtlich verschieden gehandhabten Analysenmethode DEV
H56 , andererseits aber auch ein Nebeneffekt des neu verwendeten Animpfkonzentrats ACO BIO PLUS (schaumreduzierend)
sein, das wegen zu starker Schaumbildung modifiziert wurde,
da diese den Reaktorbetrieb stört.
Die bisher aufgetretenen Abweichungen der Probewerte verschiedener Labore zeigen, dass diese Abweichungen sich im87
08_hda_querschnitt_gesamt.indb 87
18.03.2008 16:09:26 Uhr
QUERSCHNITT 22
g
Kanal
Abbildung 13 • Dem Fettabscheider und Bioreaktor nachgeschalteter Filter
(Vereinfachte grafische Darstellung)
Abbildung 14 • Dem Fettabscheider und Bioreaktor nachgeschalteter Filter
mer in gleicher Weise wiederholen und damit laborspezifisch
sind. So zeigt etwa der Vergleich der HD-Laborwerte (Abbildung 7) mit den Wessling-Laborwerten (Abbildung 8), dass
das Labor Wessling bei Abweichungen in der Regel kleinere
Werte als das HD-Labor liefert, so dass zu vermuten ist, dass
die extrem niedrigen Substratkonzentrationen sich zumindest
zum Teil aus der Problematik der Analysenmethode DEV H56
herleiten. Andererseits sind seit der Verwendung des modifizierten ACO BIO PLUS massive Ablagerungen im Bereich
der freien Wasseroberfläche des Bioreaktors zu beobachten.
Wenn diese signifikant viel lipophile Stoffe enthalten, die damit
der Probenahme entzogen sind, können die gemessenen extrem niedrigen Substratkonzentrationswerte aber auch durch
diesen Ablagerungseffekt erklärt werden. Wie dem auch sei,
zeigt Abbildung 12 deutlich, dass die im ACO BIO PLUS enthaltenen Mikroorganismen und Enzyme in der Tat ohne Zeitverzögerung die lipophilen Stoffe im NPB-Abwasser abbauen können und außerdem die Abbaufähigkeit mit der Zeit anwächst.
Mit Hilfe der fettabweisenden Eigenschaft des Filters können
nochmals Reste an lipophilen Stoffe bis etwa 40 % zurückgehalten werden. Zur Reinigung der Filteroberfläche wird die sich
selbständig einstellende Druckpulsation (Systemeigenschaft)
genutzt, die durch Einblasen von Luft in das Innere des Filters
induziert wird. Durch Einbau eines Totvolumens im Filter kann
der hierzu benötigte Luftmassenstrom stark reduziert werden.
Die so erzeugten Druckpulsationen zeigt Abbildung 15.
5 • Ausblick
Die von der ACO Passavant GmbH für Fettabscheidesysteme
zur weitergehenden Abwasserbehandlung gewählte modulare Bauweise (Fettabscheider, Bioreaktor, Filter) ergibt sich
zwangsläufig aus den dabei genutzten naturgesetzlichen Effekten (physikalisch, biologisch, hydromechanisch). Durch
die strikte Trennung der Effekte kann jedes Teilsystem für
sich verfahrenstechnisch optimal gestaltet werden. Mit der
Wahl dieser Auslegungsphilosophie wird das Verfahren zur
weitergehenden Abwasserbehandlung rückwirkungsfrei, die
Kausalität bleibt vollständig erhalten. Außerdem lassen sich
4 • Filter
Um vagabundierende Biomasseanteile und Schwebestoffe des somit bestehende Altanlagen zur weitergehenden Abwassersowohl gravimetrisch als auch biologisch gereinigten Abwas- behandlung einfach nachrüsten.
sers beim Abfluss in den Kanal zurückhalten zu können, ist Die durchgeführten biologischen Abbauversuche haben gedem Fettabscheider und Bioreaktor ein Metallspaltfilter nach- zeigt, dass das Ziel der weitergehenden Abwasserbehandlung
sicher erreicht werden kann. Voraussetzung dabei ist jedoch,
geschaltet (Abbildung 13 und 14).
dass keine Hemmungen des biologischen Abbaus entstehen.
88
08_hda_querschnitt_gesamt.indb 88
18.03.2008 16:09:27 Uhr
Weitergehende Abwasserbehandlung – damit es im Kanal noch sauberer wird! FACHBEREICH MASCHINENBAU UND KUNSTSTOFFTECHNIK
(mbar)
54,9
54,7
Eigenpulsation des Filters
54,5
54,3
54,1
53,9
53,7
53,5
53,3
53,1
52,9
52,7
52,5
52,3
0:00
0:12
0:24
0:36
0:48
1:00
1:12
1:24
1:36
1:48
2:00
2:12
2:24
2:36
2:48
3:00
(min)
Abbildung 15 • Eigenpulsation zur Reinigung der Filteroberfläche
Deshalb ist die Kenntnis von möglichen Hemmungen und deren Ursachen signifikant wichtig und muss weiter erforscht
werden. Zur Vermeidung von Hemmungen sind präventive und
verfahrenstechnische Maßnahmen zu entwickeln.
Bei den Abbauversuchen hat sich die Analysenmethode DEV
H56 zur Bestimmung der lipophilen Stoffe als Schwachstelle
entpuppt. Diese Methode muss so weiterentwickelt werden,
dass beliebige Labore bei identischen Proben auch die zugehörigen reproduzierbaren Werte liefern. Zudem ist die Methode der gravimetrischen Bestimmung abgesehen von der nicht
gegebenen Reproduzierbarkeit insbesondere bei Emulsionsbildung umständlich und zeitraubend. Die Entwicklung eines
Sensors zur online-Messung, der dann auch als Messfühler
für eine Regelung benutzt werden kann, ist überfällig.
Literatur •
1 Bossler, B., „Einsatz mikrobiologischer Produkte in Fettabscheidern“, IKT-Institut für Unterirdische Infrastruktur,
Gelsenkirchen, 2002
2 Gronau, U., „Wie gut reinigen Fettabscheider?“,
IKT-Institut für Unterirdische Infrastruktur,
Gelsenkirchen, 2002
3 Baier, U., „Fett in Fettabscheidern der Gastronomie
– Abbauen oder verflüssigen?“ Zürcher Hochschule für
Angewandte Wissenschaft, Umweltbiologie, 2004
Kurzbiografie •
Prof. Dr.-Ing. habil. Jochem Unger Jahrgang 1944. Von 1960
bis 1963 Lehrausbildung zum Technischen Zeichner. Von
1963 bis 1966 Studium des Maschinenbaus an der Ing.-Schule
Darmstadt und von 1967 bis 1971 Studium des Maschinenbaus
(Flugzeugbau) an der Technischen Hochschule Darmstadt.
Von 1972 bis 1976 wissenschaftlicher Mitarbeiter am Institut
für Mechanik der TUD (Arbeitsgruppe von Prof. Becker) und
anschließend bis 1985 Fachreferent bei der Kraftwerk Union
AG. 1975 Promotion, 1983 Habilitation für das Fach Mechanik
an der TUD. Seit 1985 Professor für Wärme-, Regelungs- und
Umwelttechnik an der FHD und seit 1991 Honorarprofessor für
Mechanik an der TUD.
89
08_hda_querschnitt_gesamt.indb 89
18.03.2008 16:09:33 Uhr
QUERSCHNITT 22
HÖRBÜCHER UND PODCASTING
FÜR BILDUNGSZWECKE
ERSCHEINUNGSFORMEN –
GESTALTUNGSWEISEN – DISTRIBUTION
Autorin •
Sabine Breitsameter
Studentische Mitarbeit: Sebastian Metz, Marco Schleicher, Dominik Schmidt
In Zusammenarbeit mit dem Arbeitskreis Hörbuch im Börsenverein des Deutschen Buchhandels
Über Buchstaben stolpern, die Wörter im Satz falsch betonen, an den unmöglichsten Stellen nach Luft schnappen, zu leise oder zu laut oder zu langsam sprechen,
die Stimme „oben“ lassen, obwohl der Satz eigentlich zu Ende ist, den Text runterrasseln, ohne ihn genau zu verstehen ... Jeder, der selbst einmal versucht hat, einen
anspruchsvollen Text vorzulesen, hat erfahren, was man dabei alles falsch machen
kann. Dabei ist das Vortragen eines Texts überall dort, wo es um Wissen, Bildung
und Kultur geht, eine traditionsreiche und unerlässliche Form der Vermittlung.
Kommt ein Text nicht verständlich und überzeugend 'rüber, verpufft der Inhalt
und nicht wenige Hörer sehen sich in ihrer Ansicht bestätigt, Zuhören sei eben nun
mal schwierig und auditive Darbietungen seien den visuellen Medien unterlegen.
Abbildung 1 • Postproduktion
90
08_hda_querschnitt_gesamt.indb 90
18.03.2008 16:09:34 Uhr
Hörbücher und Podcasting für Bildungszwecke FACHBEREICH MEDIA
91
08_hda_querschnitt_gesamt.indb 91
18.03.2008 16:09:42 Uhr
QUERSCHNITT 22
1 • Thematischer Ausgangspunkt
Dass Menschen sich trotz der Dominanz visueller Medien bewusst fürs Zuhören entscheiden: auf dieser Grundlage existiert das Medium Hörbuch und der Hörbuchmarkt. Inzwischen
ein gutes Jahrzehnt jung, mit ständigen Zuwachsraten im
zweistelligen Bereich ist das Hörbuch eine mediale Erfolgsstory, die der Branche ständig wachsende Umsätze beschert
und der auditiven Vermittlung von Inhalten einen zunehmende
gesellschaftliche Aufwertung verschafft. Der Markt selbst ist
mit geschätzten über 500 Hörbuchverlagen unübersichtlich.
Neben zahlreichen etablierten Verlagen oder auch kleinen engagierten Labels gibt es im Bereich Hörbuch inzwischen auch
eine nicht geringe Art von „Cottage Home Industry“ dank leicht
verfügbarer Audio-Digitaltechnik. Doch produzieren im Windschatten des Booms nicht nur die inzwischen zahlreichen „Küchenlabels“ so manch qualitativ zweifelhaften Schnellschuss,
der bei geringem finanziellem Einsatz schnelle Umsatzerfolge
verspricht.
Vor allem (aber nicht nur) im Bereich der Sachtext-Audio-Produktion steht hochqualitativ Realisiertes neben hörbar schnell
und sorglos Aufgenommenem. Nebengeräusche, schlechter
Raumklang, dilettantische Schnitte, fehlende Regiekonzepte,
unkonzentrierte Sprecher und die gesamte Palette der eingangs genannten möglichen Fehler sind da zu hören und machen deutlich, dass eine ganze Reihe von Hörbüchern mal eben
auf die Schnelle eingesprochen wurde. Das jeweilige Resultat
wirkt dann oft genug spannungslos, inkompetent und laienhaft.
Derartiges dürfte den Rezipienten wohl kaum dazu ermutigen,
sich Themen hörend, also mittels Audiobooks, anzueignen.
Durch schlechte Produktionen gefährdet die Industrie also auf
lange Sicht die Akzeptanz ihrer Erzeugnisse.
2 • Erläuterung des Forschungsgegenstands
Unser Forschungsvorhaben führen wir anhand des SachHörbuchs durch. Darunter verstehen wir all diejenigen Audio-Erzeugnisse, die weder auf einer dramatischen noch einer
lyrischen oder epischen Textvorlage beruhen, sondern sich einer Thematik sach- und faktenorientiert widmen. Unser Haupt„Ohrenmerk“ gilt dabei denjenigen, die geistes-, sozial-, natursowie wirtschaftswissenschaftliche Themen vermitteln1). Was
die formale Gestaltung anbelangt, so beziehen wir die gesamte
Bandbreite der Hörbuch-Produktionsästhetik ein: vom monologisch vorgetragenen Text über den Dialog bis hin zu den anspruchsvollen radiophonen Produktionsweisen des Radiofeatures. Qualitativer Maßstab für derartige Produktionen sind
seit Ende der 1940er Jahre Programme des öffentlich-rechtlichen Kulturradios. Nirgendwo sonst wurde Vergleichbares
produziert. Deren hochwertige Realisationen stellen den Maßstab auch für die Sach-Hörbuchproduktionen auf dem „freien
Markt“ dar.
3 • Problemstellung
Unser Ziel ist es, mindestens 100 Sach-Hörbücher auf ihre
produktionsästhetische Qualität hin auszuwerten. Ausgehend
vom Forschungsgegenstand, dem Sach-Hörbuch, hakt unser Projekt an der Vermittlung ein, die ja das Ziel eines jeden
Sachtexts sein muss: Wo muss Gestaltung ansetzen, welchen
Kriterien muss sie folgen, damit die Produktion und Vermittlung von Sinn und Inhalt funktionieren? Es geht dabei vor allem
um zwei Problemstellungen, eine pragmatische und einen
kulturelle: Das Vorhaben möchte – zunächst im Bereich der
Sachtexte – die Produktion von Hörbüchern fördern, professionalisieren, deren Qualität optimieren, indem es Gütekriterien
feststellt, beschreibt und systematisiert. Dies anhand zweier
Hauptfaktoren der Realisation, nämlich der Stimme und deren
Führung – oder anders ausgedrückt anhand von Schauspieler /
in und Regie.2)
Darauf aufbauend soll eruiert werden, auf welche Weise diese Kriterien möglichst optimal umgesetzt werden können.
Abschließend soll exemplarisch, zur Veröffentlichung der gewonnenen Erkenntnisse, ein Online-Distributionsmodell auf
der Grundlage der studentischen Produktionen entwickelt
werden.
In den folgenden Darlegungen soll der derzeitige Zwischenstand des Forschungsprojekts referiert werden. In diesem
geht es um die Wahrnehmung, Beschreibung und Kategori-
1)
Ausgeklammert sind typische Ratgeber-Hörbücher und Reisehörbücher sowie
Produktionen, die auf Kinder abzielen. Produktionen, die auf junge Erwachsene
abzielen, beziehen wir ausdrücklich ein
2)
Selbstverständlich spielt auch die technische Realisation (Schnitt, Raumklang,
Mikrophonierung u.a.) für die Qualität von Hörbüchern eine wichtige Rolle. Diese fließt auch in unsere Bewertungen mit ein. Doch lässt sich diese als eine
hinreichende Bedingung für die Gesamtqualität einer Produktion bezeichnen.
Selbst eine technisch optimale Produktion muss als misslungen gelten, wenn
beispielsweise eine Fehlbesetzung der Schauspieler vorgenommen wurde oder
eine fehlerhafte Regie geführt wurde. Auch eine noch so perfekte technische
Realisierung kann inhaltliche und formale Fehler, die für die Vermittlung grundlegend sind, nicht ausbügeln. Gleichfalls muss abgewogen werden, ob ein Hörbuch von geringerer technischer Qualität in seinen funktionalen und emotionalen
Aspekten ebenso gut „funktionieren“ kann wie eines von optimalem technischen
Standard.
92
08_hda_querschnitt_gesamt.indb 92
18.03.2008 16:09:48 Uhr
Hörbücher und Podcasting für Bildungszwecke FACHBEREICH MEDIA
Abbildung 2 • Vorbesprechung
sierung von Qualitätskriterien. Im Gegensatz zu den hochentwickelten Diskursen über die Bildersprache, die filmische
Produktionsästhetik oder die visuelle Semiotik stehen derartige systematische Betrachtungen für den Bereich des auditiv
Gestalteten immer noch aus. Damit reiht sich das vorliegende
Forschungsprojekt in die neue akademische Disziplin der
„Sound Studies“ ein.
4 • Umsetzung des Forschungsvorhabens
4.1 Zur Methodik
Wo positioniert sich eine Forschung, die nach ästhetischer Qualität fragt, sich also kritisch versteht? Oft wird hier vorschnell
eingewandt, ästhetische Qualität lasse sich nicht feststellen
oder sei eine rein individuelle Geschmackssache. Sicherlich ist
es richtig, dass Kritik an Ästhetischem sich nicht bis ins Letzte
wissenschaftlich absichern läßt. Ein wissenschaftlich unauflösbarer Rest an subjektivem Urteil und zeitgeistiger Konditionierung muss wohl immer bleiben. Gleichwohl braucht derjenige, der Kritik vornimmt, eine wissenschaftliche Ausrüstung,
auf die er seine Wertungen gründet. Fundierte, gestalterische
Kritikfähigkeit ist im übrigen eine Schlüsselqualifikation in
kreativen Berufen.
Die Instrumentarien, aus denen unser projektbezogenes wissenschaftliches Equipment besteht, sind akustische Beobachtung, Beschreibung, Wahrnehmungsstrukturierung und ihre
begriffliche Systematisierung. Daraus leiten wir Kriterien ab,
die relevant für die Qualität von Audiobooks sind. Indem wir
Kriterien identifizieren, sie anhand von existierenden Produktionen und Gestaltungsweisen beschreiben, wollen wir, bildlich
gesprochen, einen Raum abstecken, der eine Art referentielle
Begriffs-Topographie für die Bewertung von Sach-Hörbüchern
liefert. Die genannten Kriterien stellen begriffliche oder phä-
nomenologische Bezugspunkte her. Diese können und müssen
mit- und gegeneinander gewogen werden, und zwar für jede
Produktion einzeln.
Die wissenschaftliche Vorgehensweise kann damit näherungsweise bestimmen, was eine gelungene Produktion ausmacht. Sie kann jedoch kein theoretisches Rezept dafür liefern,
das bei Realisierung zum garantierten Erfolg führt. Indem wir
die o.g. Beobachtungen beschreiben und kategorisieren, werden auch die nicht-intelligiblen Anteile, die subjektiv-künstlerischen also, deutlich.
In unseren Wertungen streben wir also „Näherungswerte“ an,
und halten darüber hinaus den Disput über unsere Beschreibungen, Kriterien und Aussagen für unverzichtbar. Ohne derartige Auseinandersetzungen ist gestalterische und künstlerische Arbeit gar nicht denkbar. Das Vorhaben eine stimmliche
Produktionsästhetik zu formulieren ist bislang ohne Vorbild.
Weder existieren dazu wissenschaftliche Forschungen, noch
wurde das Thema essayistisch fundiert bearbeitet.
4.2 Praktisches Vorgehen
Um Vergleichbarkeit zu gewinnen, werten wir die jede Produktion anhand eines Fragenkatalogs aus, der – neben Titel,
Sprecher, Regisseur und produzierender Institution – Thema,
Textqualität und technische Qualität erfasst sowie mögliche
Zielgruppe, Genre und Machart. Besonders viel Raum erhalten
Antworten auf die Fragen nach sowohl positiven wie auch negativen Charakteristiken und Wirkungen der sprecherischen
Darbietung. Die Bewertungen nimmt jedes Teammitglied einzeln vor. Auch von Teilnehmerinnen und Teilnehmer einschlägiger Lehrveranstaltungen wurden Hörbücher mit Hilfe des
Fragebogens ausgewertet.
Neben den erfragten Beobachtungen und Einschätzungen ist
93
08_hda_querschnitt_gesamt.indb 93
18.03.2008 16:09:49 Uhr
QUERSCHNITT 22
für uns dabei von besonderem Interesse, ob und inwiefern
verschiedene Teammitglieder oder auch Seminar-Teilnehmer
zu unterschiedlichen Einschätzungen gelangen. Interessant
ist hier, dass es meist zu erstaunlich ähnlichen Bewertungen
kommt. Diese Bewertungen beruhen auf genauem Zuhören,
also der sorgfältigen Beobachtung von sprecherischer Darbietung. In bislang in keinem einzigen Fall kam es zu einer diametralen Einschätzung. Mit erstaunlicher Übereinstimmung
wurden in den allermeisten Fällen ähnliche Gestaltungsaspekte kritisiert. Zu unterschiedlicheren Einschätzungen kam
es, wenn zerstreut zugehört wurde sowie dann, wenn es darum ging, die jeweiligen Vor- und Nachteile einer Produktion
miteinander in ein abschließend bewertendes Verhältnis zu
setzen.
5 • Kategorisierung der Kriterien
Um Qualität beurteilen zu können, geht es letztlich darum, die
Wirkungsabsichten der jeweiligen Produktion zu untersuchen,
und festzustellen, mit welchen Mitteln diese realisierbar sind.
Wie funktioniert etwas und auf welcher Grundlage? Hierzu
haben wir drei Kriterienfelder identifiziert: Das funktionale,
das emotionale und schließlich das strategische Kriterienfeld.
Hier fragen wir jeweils danach, wie das Funktionieren sowie
das Misslingen der drei Aspekte beschrieben gebracht werden
kann und zeigen auf, wie die Bereiche miteinander interagieren.
Wenn die folgende Darstellung exemplarisch nur Negativ-Beispiele herausgreift, so nicht, weil die Realisierung von SachHörbüchern generell negativ zu bewerten ist, sondern um die
Aspekte der Kritik, den das Forschungsvorhaben impliziert, zu
verdeutlichen.
5.1 Das funktionale Kriterienfeld
Als das oberste Ziel einer Sach-Hörbuchproduktion identifizierten wir die wirksame und glaubwürdige Vermittlung des
Inhalts. Das wichtigste Kriterium dafür: der Sprecher / die
Sprecherin muss glaubhaft machen, den Text verstanden zu
haben. Er / sie muss ihn sich zu eigen gemacht haben. Diese
intellektuelle Durchdringung des Texts durch den Sprecher ist
die Grundvoraussetzung dafür, dass der Hörer den Text verstehen kann.
Ein herausragendes Beispiel für eine fast völlige Ignoranz des
funktionalen Aspekts ist die populäre Sigmund-Freud-Edition, welche 2006 – unterstützt durch eine große deutsche Wochenzeitung – in einer elf CDs umfassenden Edition auf den
Markt gebracht wurde. Namhafte Persönlichkeiten aus Film
und Fernsehen (u.a. Hanna Schygulla, Gudrun Landgrebe, Roger Willemsen sowie der Verleger Michael Krüger) sprachen
bekannte Texte Freuds ein. Es ist ein eigentlich interessantes
Unterfangen, die inhaltsreichen, auf jeden Fall sprachlich und
gedanklich schwierigen Texte zu vermitteln und ihnen dabei
den individuellen Stempel anspruchsvoller Schauspieler aufzuprägen. Doch auch ein schwieriges, welches nahezu komplett misslang.
Folgendes fehlte überwiegend in den Einspielungen:
• Pausen, durch welche Sinneinheiten gegliedert werden,
• die richtige Betonungen der Wörter im Satz,
• souveräner Wortfluss und Leichtigkeit (keine Hektik, kein
„Abmühen“).
Aufgrund dieser Mängel ließ der stimmliche Ausdruck oft den
Eindruck eines oberfl ächlichen Vortrags entstehen, oft klang
der Text abgelesen. „Fremdheitsgefühle“ des Sprechers gegenüber der vorgetragenen Wortwahl, Syntax, dem Inhalt
etc. wurden deutlich. Über allem aber wurde der stimmliche
Gesamteindruck der jeweiligen Sprecher dem vorgetragenen
Text nicht gerecht. Dies drückte sich unterschiedlich aus, lässt
sich aber in der Feststellung zusammenfassen, dass die Sprecherinnen und Sprecher von ihrem jeweiligen Image als Filmund Fernsehdarsteller nicht ablassen konnten. Die sehr sachorientierten Texte Freunds wurden – je nach Darsteller – mal
mit naivem, mal mit lässigem, mal mit „raunendem“ Unterton
gesprochen. Eine Vermittlung der Texte war nicht gewährleistet. So kam es oftmals zu dem skurrilen Effekt, dass die
Texte durch die Interpretation widersinning, unauthentisch und
„sprechblasenhaft“ wirken. Wer die Texte Freuds kennt, weiß
jedoch, dass dies nicht der Fall ist. Die nicht erfolgte, aber gebotene Vermittlung des Inhalts droht gar in ihr Gegenteil umzukippen: in eine Desavouierung des Texts.
Sprechern und Regie gelang es nicht, eine Sprechhaltung zu
finden und durchzuhalten, welche der Vermittlung gerecht
wurde. Allein auf die Tatsache zu bauen, eine inhaltliche Vermittlung werde bereits durch das getragen, was Schauspieler
„mitbringen“, reicht nicht aus, um den funktionalen Aspekt der
Gestaltung von Hörbüchern umzusetzen.
Fazit: Das genannte Beispiel ist symptomatisch: Eine ganze
Reihe von Produktionen zeigt, dass folgende, grundlegende
Anforderungen zur Vermittlung des Texts immer wieder nicht
oder mangelhaft realisiert werden:
• Der Text darf nicht abgelesen klingen (sonst kann kein Eindruck des Verstehens aufkommen).
94
08_hda_querschnitt_gesamt.indb 94
18.03.2008 16:09:52 Uhr
Hörbücher und Podcasting für Bildungszwecke FACHBEREICH MEDIA
• Der Sprecher, die Sprecherin muss den Text an ein Publikum
adressieren, also zu jemandem sprechen (sonst fühlt sich
im wahrsten Sinne des Wortes keiner angesprochen).
• Angemessene, dem Text entsprechende Tempi, sinnvoll gesetzte Pausen und last but not least eine klare Aussprache
sind für das Verständnis unabdingbar.
5.2 Das emotionale Kriterienfeld
Die emotionale Aspekte gehen über die rein kognitive Vermittlung des Sachverhalts hinaus. Sie färben die Atmosphäre des
Hörtexts und bestimmen die Art und Weise, wie die Darbietung
das Verhältnis zwischen Hörer und Sprecher implizit realisiert.
Emotionale Gestaltungsaspekte bereiten aber auch der Akzeptanz von Vermittlung und Sachverhalt den Boden, etwa bei
einer bestimmten Zielgruppe.
Sprecher bzw. Sprecherin vermitteln eine grundsätzliche Gestimmtheit dem Text gegenüber (z.B. „frisch“ / „angespannt“,
„modern“ / „konservativ“, „locker“ / „seriös“, „gelassen“ / „engagiert“ u.a.). Das individuelle Temperament der Vortragenden
wird deutlich und färbt auf Inhalt ab: (z.B. lebhaft, ruhig, jugendlich, intellektuell, sinnlich, weltzugewandt, streng). Auf
diese Weise stellt sich eine Sprecher-Persönlichkeit dar, die
im Bewusstsein der Rezipienten oft mit der Persönlichkeit des
Autors identifiziert wird (z.B. als weise, humorvoll, freundlich, distanziert, tiefsinnig, selbstironisch, charismatisch, aber
auch als jeweils gegenteilig etc.).
Emotionale Gestaltungsaspekte spielen sich innerhalb einer
gewissen Bandbreite ab, zwischen ernster Sachlichkeit bis hin
zu lockerer Fröhlichkeit. Letztere kann in unverbindliche Anbiederung abkippen, erstere in trockene Langeweile und „erhobenen Zeigefinger“. Was an den genannten Rändern (noch)
akzeptabel ist, noch Vermittlung darstellt, ist diskutabel, unterliegt Geschmack und Zeitgeist und muss von den Produzierenden genau austariert werden. Allzu schnell kann das
inhaltliche Funktionieren des Texts umschlagen in emotionale
Unannehmbarkeit: dort etwa, wo Vermittlung zu autoritärem
Wahrheitsanspruch wird, zum raunenden Märchenerzähler
oder sich mit aufgesetzter guter Laune peinlich aufdrängt.
Auch hierfür gibt es zahlreiche Beispiele in Hörbuchproduktionen.
Bereits bei der Beschreibung der funktionalen Aspekte ist an
etlichen Stellen deutlich geworden: „Reine“ Vermittlung ist
geradezu undenkbar. Sie schlägt stets in ihr Gegenteil um. Das
folgende Beispiel zeigt, dass die faktenorientierte Sprechhaltung von Nachrichtensprechern, die ja einem journalistischen
Objektivitätsgebot folgt, emotionalisieren kann, und zwar negativ.
So misslingt es dem Tagesschausprecher Jo Braune und seiner Regisseurin Gabriele Kreis in einer Hörbuchproduktion
zum Thema Körpersprache die nachrichtliche Sprechhaltung
des Interpreten zu überwinden. Dadurch wirkt die Produktion übermäßig sachlich, das Zuhören wird zu einer mühsamen
Konzentrationsaufgabe, der Text wirkt trocken, langweilig und
wenig plastisch. Eine anders angelegte Regie und damit verbundene sprecherische Gestaltungsweise hätten hier einen
Eindruck erzielen können, der Text und Thema interessanter
und buchstäblich ansprechender vermittelt.
Fazit: Jede nicht geglückte Umsetzung des funktionalen Aspekts schafft auf der emotionalen Ebene eine unerwünschte
und inadäquate Wirkung. Emotionale Wirkungsaspekte müssen vorab reflektiert und „angepeilt“ werden. Dies geschieht
durch das Festlegen einer redaktionell-dramaturgischen
Grundlinie, durch ein genaues Casting der Sprecherinnen und
Sprecher und durch eine sorgfältige Regie,
5.3 Das strategische Kriterienfeld
Strategische Aspekte zielen auf die Positionierung des jeweiligen Hörbuchs im Kulturleben, vor allem aber auf dem
Hörbuchmarkt. So ist etwa die Ausrichtung auf eine spezielle
Zielgruppe, etwa auf junge Erwachsene, eine strategische Entscheidung, die sich zunächst in der Wahl der Themen äußert,
sich danach aber vor allem in der Anwendung emotionaler Gestaltungsmittel niederschlägt. Beim Casting werden sicherlich andere Sprecher ausgewählt, es wird ein anderer Regiestil gepflegt als bei Produktionen, die auf das übliche „reifere“
Publikum zielen. Aus der zunehmend „jüngeren“ zielgruppengemäßen Positionierung sind in den letzten Jahren zum Teil
mitreißende Realisationen entstanden, die Maßstäbe gesetzt
haben.
Doch nicht selten beeinflussen strategische Überlegungen die
funktionalen und emotionalen Aspekte negativ: Um auf dem
Markt bestehen zu können, spielen Produktionskosten eine
Rolle. Lange Herstellungszeiten in teuren Studios werden
also eher vermieden. Dies hat zum Nachteil, dass auch das
Zusammenwirken von Regie und Sprechern zeitlich begrenzt
wird. Kritisches Regie-Feedback und dessen stufenweise Umsetzung durch den Schauspieler haben also nur wenig Raum.
Gerade bei der Umsetzung von sprachlich schwierigen und
intellektuell anspruchsvollen Texten wie der erwähnten Sigmund-Freud-Edition muss sich dies negativ auswirken. In et95
08_hda_querschnitt_gesamt.indb 95
18.03.2008 16:09:53 Uhr
QUERSCHNITT 22
Abbildung 3 • Postproduktion
96
08_hda_querschnitt_gesamt.indb 96
18.03.2008 16:09:53 Uhr
Hörbücher und Podcasting für Bildungszwecke FACHBEREICH MEDIA
lichen Produktionen hat man den Eindruck, dass eine Regie
nicht stattfand.
Aus Kostengründen werden bei etlichen Hörbüchern offensichtlich auch Laien als Sprecher herangezogen. Bemerkbar
macht sich das dort, wo elementare funktionale Gestaltungsaspekte nicht befolgt werden. Sprecher, die den Eindruck von
Laien erwecken, wirkten oftmals besonders hektisch. Ihre
Darbietungen klingen meist abgelesen und oft sprechen sie
„zum Papier“.
Dem gegenüber erfolgt die Vermarktung zahlreicher Hörbücher auch und gerade bei Sachtexten häufig mittels prominenter Film- und Fernseh-Schauspieler und Schauspielerinnen. Audio-Regisseurinnen und -Regisseure, auch wenn sie
namhaft sind, werden allerdings nirgendwo besonders hervorgehoben. Oft muss man die Namen der Regie mühsam im
CD-Booklet suchen. Dass die berühmten Schauspieler in aller
Regel auf das visuelle und nicht auf das auditive Medium „geeicht“ sind, wird von den Hörbuch-Verlagen offensichtlich nicht
problematisiert. Ausschlaggebend erscheinen zumeist Image
und Grad der Prominenz, und nicht die Befähigung Audiobooks
kompetent einzusprechen. Nicht nur die Sigmund-Freud-Edition hat dies deutlich gezeigt. Eine prominente Besetzung ist
sicherlich ein effizienter Kaufanreiz, womöglich aber ein lediglich kurzfristiger. Wo die funktionalen und emotionalen Kriterien nicht gewahrt werden, und dies – so hat sich herausgestellt – ist bei einer Besetzung mit „Celebrities“ oft der Fall, ist
zu vermuten, dass die Akzeptanz der Produktion und diejenige
des Mediums selbst darunter leiden.
Zu den strategischen Aspekten zählt auch, wenn die Produktion eines bestimmten Audiobooks parallel zum Erscheinen
eines gleichnamigen Buchs oder Films veranlasst wird. Hier
geht es dann oftmals darum, etwa mit einem Titel oder Autor
in allen Medien vollständig präsent zu sein oder das Sortiment
an Merchandising-Produkten zu einem Thema um ein Hörbuch zu komplettieren.
Fazit: Wo strategische Kriterien die funktionalen und emotionalen Aspekte dominieren, sind die Produktionen durchweg
von geringer ästhetischer Qualität.
matischer Fachleute und Experten, bestätigen hier die Regel.
Gerade daran wird deutlich: Die Gewichtung der drei genannten Kriterienfelder muss in Hinblick auf die qualitative Bewertung flexibel festgestellt werden.
Unabdingbare Grundlage für ein gelungenes Sach-Hörbuch
bleibt aber die intellektuelle Durchdringung des Texts durch
Sprecherin oder Sprecher. Diese ist nicht inszenierbar, aber
auf ihr setzen die Inszenierungsmöglichkeiten vermittelnder
Sprechhaltungen auf. Die Regie dient dazu, den Sprecher oder
die Sprecherin durch den Text konsequent in der gewählten
Sprechhaltung zu führen, von Anfang bis Ende und dabei über
emotionale Qualitäten eine nuancierte Mehrdimensionalität
der Darbietung zu erreichen. Regie erfordert Einfühlsamkeit
und Sensibilität ebenso wie Distanz, wobei sie das Funktionieren des Texts als großes Ganzes im akustischen „Blick“ haben
muss. Dies muss auch strategische Aspekte beinhalten, z.B.
zielgruppen-, kosten- und marktgerechte Produktionsweisen.
Auf den hier beschriebenen Erkenntnissen kann die FolgePhase unseres Projekts aufbauen, nämlich die erwähnten Kriterien in eigene Hörbuch-Produktionen umzusetzen und sie
auf ihre Praxis-Tauglichkeit zu überprüfen.
Kurzbiografie •
Prof. Sabine Breitsameter lehrt Sound Design and Production
am Fachbereich Media der Hochschule Darmstadt. Seit Mitte
der achtziger Jahre ist sie Radiomacherin für die Kulturprogramme der ARD und arbeitet als Autorin, Regisseurin und
Redakteurin in den Bereichen Hörspiel, Künstlerisches Feature, Akustische Medienkunst und elektroakustische Musik.
Als Leiterin internationaler Festivals und Symposien kuratierte sie u.a. für „Ganz Ohr – Symposium über das Zuhören“
(Kassel 1997, parallel zur Documenta), StadtStimmen (Landeshauptstadt Wiesbaden 1998), „Klang, Medien und urbaner
Raum“ (Akademie der Künste Berlin 2005) sowie „Radio-Revolten“ (Halle 2006). 2005-2006 war sie Intendantin des temporären deutsch-polnischen Künstlerradios „Radio_Coperni6 • Zum Zwischenstand des Forschungsvorhabens
cus“. An der Universität der Künste Berlin ist sie seit 2003
Akustische Beobachtungen, Beschreibungen und die vorlie- Mitbegründerin des Master-Studiengangs Sound Studies. Dort
gende Kategorisierung haben ergeben, dass nicht allein die hat sie bis dato eine Gastprofessur für Experimentelle KlangAuswahl des Sprechers, sondern auch eine gelungene Regie gestaltung inne. Zahlreiche internationale Preise und Jurymitentscheidend ist für die Qualität einer Hörbuch-Produktion. gliedschaften, u.a. beim Deutschen Hörbuchpreis, dem Prix
Ausnahmen, wie etwa die Einspielung einiger seltener charis- Ars Electronica.
97
08_hda_querschnitt_gesamt.indb 97
18.03.2008 16:09:57 Uhr
QUERSCHNITT 22
ENERGIE-CONTROLLING IN KLEINEN
UND MITTLEREN KOMMUNEN?
Autor •
Hans-Jürgen Zubrod
1 • Über das Ob und das Wie
Energie-Themen sind „in“. Klima ist eigentlich immer aktuell, seit den Klima-Gipfeln aber ganz besonders.
Geiz bedarf keiner besonderen Rechtfertigung mehr, nachdem er jetzt sogar erotisch legitimiert ist.
Kann es eine bessere Gemengelage geben, um eine bislang so spröde Thematik wie Energie-Einsparung
in Kommunen aufzugreifen? Wohl kaum!
Als Treiber für eine vom zfe in 2007 geförderte Vorstudie am
Fachbereich Wirtschaft sind trotzdem andere Faktoren maßgebend gewesen:
• Langjährige Erfahrungen in umfangreichen Projekten des
Studiengangs Energiewirtschaft haben beträchtliche Einsparpotenziale bei der Bewirtschaftung kommunaler Liegenschaften aufgedeckt, zugleich die Frage entstehen lassen,
was ihre tatsächliche Erschließung hindert.
• Einsparmöglichkeiten bei den viel zitierten „leeren Kassen“ ungenutzt zu lassen, ist eigentlich ein Paradoxon. Oder
nicht? Gibt es Zusammenhänge mit der Art und Weise, wie
das Finanzmanagement der Kommunen erfolgt? Dies knüpft
unmittelbar an Fragestellungen aus der Lehre im energiewirtschaftlichen Studiengang des Fachbereichs an.
• Die in der Projektarbeit zum Einsatz kommenden Analysetechniken für kommunale Energie-Einsparung – von einer
Grobanalyse über die Feinanalyse zur Maßnahmenplanung
einschließlich Wirtschaftlichkeitsrechnung – haben auch
außerhalb des Studiengangs viel Resonanz gefunden (so auf
der Cebit 2006) und zur Etablierung eines Arbeitskreises
aus öffentlichen und privaten Einrichtungen geführt. Der
Zusammenschluss versteht sich als Ergebnis eines längeren Diskussionsprozesses als „Initiative nutzerfreundliche
Software zum Energiecontrolling (INSE)“.
In dem INSE-Kürzel kommen einige Hypothesen zum kommunalen Energiemanagement zum Ausdruck, die aus der Arbeitsgruppen-Diskussion und der Projekterfahrung resultieren:
• Es bedarf der Initiative, einen Automatismus zum EnergieControlling gibt es nicht.
• Energie-Controlling muss nutzerfreundlich ausgestaltet
sein, damit es akzeptiert wird und in der Gemeinde selbst
betrieben werden kann. Das bedeutet primär Verzicht auf einen zu hohen Komplexitätsgrad.
• Energie-Controlling muss, damit es nicht zufällig bleibt, eine
Software-Anbindung finden, die Systematisierung erlaubt.
• Für die Software-Anbindung sind einfache Lösungen zumindest für kleine und mittlere Kommunen) ausreichend, weil
sie bereits zu erheblichen Einsparungen führen können.
Weitere Einsparungen sind i. d. R. nur durch überproportional wachsenden Software-Aufwand realisierbar, der mit
vorhandenen personellen Ressourcen ggf. nicht mehr bewältigt werden kann.
2 • Der Projektantrag
Als zentrales Endziel wurde die Erleichterung des energetischen Gebäudemanagements in öffentlicher und kommunaler Verwaltung mit Hilfe einfacher und benutzerfreundlicher
Software-Instrumente definiert. Als einzubeziehende (Teil-)
Bereiche wurden genannt:
• Erfassung und ursachengerechte Zuordnung von Verbrauchsdaten für Brennstoffe, Strom und Wasser (z. Zt. feststellbare
Mängel: keine aktuellen Daten, Witterungsbereinigung fehlt,
Daten lassen sich nicht eindeutig einzelnen Verbrauchsstellen zuordnen)
• Energiebedarfsermittlung auf Basis der Objektbeschaffenheit und der installierten Anlagentechnik (z. Zt. feststellbare
Mängel: überhaupt keine Bedarfsrechnungen, deshalb auch
keine Vergleiche zu Durchschnitts- und Best-Werten möglich)
• Ableitung und Beurteilung von Sanierungsmaßnahmen (z.
Zt. feststellbare Mängel: keine Aufdeckung des Sanierungsbedarfs wegen unzureichender Verbrauchsdaten und /oder
fehlender Bedarfsermittlungen, keine mittel- bis längerfristigen Betrachtungen aufgrund des Prinzips der Jährlichkeit
des Haushaltsplans)
98
08_hda_querschnitt_gesamt.indb 98
18.03.2008 16:09:58 Uhr
Energie-Controlling in kleinen und mittleren Kommunen? FACHBEREICH WIRTSCHAFT
Die Mitglieder des INSE-Arbeitskreises
• IGDV Zentrum für Advance Learning, Medien und Simulation
• Baugenossenschaft Ried, Groß Gerau
• Bergische Universität Wuppertal, Wuppertal
• enmore AG, Griesheim
• Gemeinde Büttelborn, Büttelborn
• Ingenieurbüro Dieter Meisel, Bickenbach
konnten als Kooperationspartner für das geplante Projekt
leicht gewonnen werden, war doch eine organisatorische Absicherung und inhaltliche Anreicherung seitheriger Aktivitäten
erwartbar. Der Projektleitung konnte (und wollte) sich der
Verfasser nicht entziehen, zumal die wesentliche Beteiligung
des Geschäftsführers des IGDV bei Steuerung und Kontrolle
Entlastung und fachlichen Zugewinn versprach (was sich denn
genau so auch realisierte).
Einigkeit bestand bei allen Verfahrensbeteiligten auf dem Weg
zum anspruchsvollen Endziel (zunächst) eine bescheidenere
Vorstudie mit drei Aufgabenstellungen durchzuführen:
• In einem Clearing-Prozess mit kooperationsbereiten Kommunen sind die Erwartungen an eine nutzerfreundliche Software zum Energiecontrolling zu konkretisieren. Die Anknüpfungsmöglichkeiten an vorhandene Datenbestände müssen
grob abgeschätzt werden. Außerdem ist eine Erhebung zum
Umfang des erwartbaren finanziellen Engagements der Gemeinden bei der Softwarenutzung erforderlich.
• Es ist ein in Flash programmierter Prototyp zur speziellen
Berücksichtigung der Oberflächenstruktur (samt Anforderungsanalyse aus Softwaresicht und der Umsetzung) zu
erstellen.
• Finalisierung und Implementierung in den Kommunen einschließlich der damit verbundenen Schulungserfordernisse
können nur in einem größeren Forschungszusammenhang
erfolgen. Die entsprechenden Förderungsmöglichkeiten im
nationalen und europäischen Rahmen sollen in der Vorstudie systematisierend geprüft werden. Des Weiteren soll der
jetzige Kooperationszusammenhang noch ausgeweitet werden, insbesondere auf ausländische Partner.
Sehr erfreulich für INSE-Gruppe und Verfasser war der positive Bescheid der zfe-Leitung. Das beantragte Finanz-Volumen – genau an der Kleinantrags-Grenze platziert – wurde
ohne Abstriche bewilligt, so dass insbesondere der Einsatz
studentischer Hilfskräfte und die Vergabe von Werkverträgen
in einem den Fragestellungen angemessenen Rahmen ermöglicht wurden. Dem Projektleiter stand eine Deputatsreduzierung von 2 SWS zur Verfügung.
3 • Kommunales Energie-Controlling? – Fragen an die
Betroffenen
Der Projektantrag geht von der begründeten Vermutung aus,
dass es tatsächlich einen Bedarf an einem kommunalen Energie-Controlling gibt, das durch Einfachheit und Software-Unterstützung geprägt ist. Aber wie begründet ist die Vermutung
wirklich? Stellen die Kommunen, mit denen im Rahmen der
Projektarbeit bisher Arbeitsbeziehungen entstanden sind, einen quasi repräsentativen Querschnitt dar? Gibt es regionale
Besonderheiten? Wie belastbar sind die Erfahrungen der Kooperationspartner? Wären die Kommunen, denen man geeignete Controlling-Instrumente an die Hand geben will, auch zu
einer nicht nur ideellen Honorierung bereit? Setzen sie mehr
auf externe Berater als die Möglichkeiten der eigenen Verwaltung?
Es stellen sich viele Fragen. Die Antworten kennen eigentlich
nur die Betroffenen. Der Schritt zu ihrer Befragung ist fast
zwingend. Doch die Tücken liegen im Detail. Da gibt es die
große Zahl von Kommunen in der Bundesrepublik Deutschland. Will man auch die Gemeindeverbände mit einbeziehen?
Praktische Erwägungen legen schnell eine Beschränkung nahe. Also: Verzicht auf die Gemeindeverbände, Verzicht auch auf
die ganz kleinen und die größeren Gemeinden! Für die zu untersuchenden Fragen scheinen Gemeinden mit 7.500 bis 25.000
Einwohnern am interessantesten. Kleinere Kommunen haben
weniger Liegenschaften zu verwalten, der Überblick erfordert (vermutlich) kein besonderes Instrumentarium. Größere
Gemeinden haben wahrscheinlich ihre Controlling-Entscheidungen schon getroffen, bedienen sich ggf. professioneller
Hilfe von außen. Aber: Die Zahl verbleibender Gemeinden ist
immer noch stattlich.
Organisatorische Erleichterung verspricht die Online-Befragung. Aber: Wie macht man die Kommunen auf sie aufmerksam? Natürlich per E-Mail! Aber wo sind die E-Mail-Adressen?
Leider nicht ohne weiteres verfügbar, leider nicht immer aktuell! Statistische Landesämter sind hilfsbereit, können aber bestimmte Leistungen nur gegen Entgelt erbringen. Es hat, um
es abzukürzen, eines gewaltigen Such- und Organisationsauf99
08_hda_querschnitt_gesamt.indb 99
18.03.2008 16:09:59 Uhr
QUERSCHNITT 22
wands bedurft, um eine Datenbank mit E-Mail-Adressen anzulegen (deren Zuverlässigkeit sich in vielen Einzelfällen immer
noch als wackelig erwiesen hat). Trotzdem: 375 von 1814 Gemeinden haben sich an der recht umfänglichen Umfrage beteiligt, 111 davon sogar alle 36 Fragen komplett beantwortet;
42 Gemeinden haben ihre Bereitschaft zu einem vertiefenden
Interview bekundet.
Der „Fragebogen zu Stand und Erwartungen an ein (kommunales) Energie- und Verbrauchscontrolling“ war in fünf Teilbereiche gegliedert:
• Allgemeine Informationen: Hier ging es um Bevölkerungsstand, das Haushaltsvolumen der Kommune, Wirtschaftskraft und ihre Verteilung auf die Wirtschaftssektoren, die
Arten der kommunalen Haushaltswirtschaft (Kameralistik,
erweiterte Kameralistik oder Doppik), Anzahl und Nutzung
kommunaler Liegenschaften, Umfang und Qualität der Dokumentation von Lage- und Bauplänen sowie die Institutionalisierung von Funktionen im Energie- und Umweltbereich.
• Erfassung der Verbrauchsdaten für die selbst bewirtschafteten Gebäude: Die Fragen dienten der Ermittlung, ob überhaupt, in welchem Umfang und von wem die Ist-Verbräuche
an Energie und Wasser erfasst und wo sie ggf. dokumentiert
werden. Dass in diesem Bereich vieles unterbleibt bzw. nur
sporadisch erfolgt, war grundsätzlich bekannt. Die Befragung sollte nähere Einzelheiten erkennen lassen.
• Auswertung der Verbrauchsdaten für die selbst bewirtschafteten Gebäude: Für eine Analyse der Verbrauchsdaten
ist deren Erfassung notwendige Voraussetzung. Wird sie
aber auch tatsächlich vorgenommen? In welchem Umfang
und mit welcher Intensität? Wie hoch wird der personelle
Aufwand eingeschätzt? Finden besondere Personal-Schulungen statt? Wird Software eingesetzt und welche ggf.? Mit
dem dritten Fragenkomplex sollte der Ist-Zustand der Verbrauchsdaten-Auswertung erfasst werden.
• Zukünftige Erfassung der Verbrauchsdaten für die selbst
bewirtschafteten Gebäude: Für das eigentliche Projektziel von besonderem Interesse ist natürlich die Frage nach
Absichten und Planungen der Gemeinde für ein künftiges
Energie-Controlling. Gibt es überhaupt Unbehagen am status quo, was ggf. soll verbessert werden? Wie stark differenziert und in welchem zeitlichen Rhythmus sollen Energieverbrauchsdaten erfasst und organisatorisch verwaltet
werden? Sollen Controlling-Aktivitäten durch die Verwaltung selbst erfolgen (ggf. durch einen Energie-Beauftragten) oder eher durch externe Personen (Werkvertrag) oder
Einrichtungen (Ingenieurbüros)?
• Perspektiven: Der abschließende Fragebogen-Bereich sollte in Erfahrung bringen, ob die Kommune bereit wäre sich
an der angestrebten einfachen Software-Lösung zum Energie-Controlling auch zu beteiligen und zwar einmal auf der
fachlichen Ebene, nicht zuletzt jedoch auch in finanzieller
Hinsicht (Programmerwerb und /oder laufende Nutzungsentgelte). Fehlende „Resonanz“ wäre für die Projektidee
nicht gerade förderlich.
4 • Kommunales Energie-Controlling? – Äußerungen der
Betroffenen
Die Online-Umfrage fand von Aug. bis Okt. 2007 statt. Von den
angeschriebenen Kommunen reagierten gut 20 %. Die Reaktionen erfolgten schnell, i. d. R. innerhalb einer Woche. Nicht
immer – aber doch bei knapp 30 % der antwortenden Gemeinden – war der Fragebogen auch bis zum Ende ausgefüllt: Der
Umfang war wohl etwas zu groß geraten. Aber auch so konnten
wichtige Erkenntnisse gewonnen werden, zumal es weniger um
quantitative Analysen mit Auswertungen bis zur zweiten Nachkommastelle ging. Vorrangig interessierte, ob bei den kleinen
und mittleren Kommunen Bedarf an einem systematisierten,
aber doch einfachem Energiecontrolling besteht und Bereitschaft vorhanden ist, entsprechende Software-Angebote auch
(entgeltlich) zu nutzen. Summarisch kann gesagt werden, dass
für eine Mehrzahl der Kommunen sowohl der Bedarf als auch
die Nutzungsbereitschaft eindeutig bestätigt wurden. Für den
Tag der Forschung an der Hochschule Darmstadt am 06.11.07
wurden die Umfrage-Ergebnisse und ihre Interpretationen in
einer Schnellauswertung in Form von 9 Statements zusammengefasst, basierend auf den Häufigkeitsverteilungen zu den
Antwortmöglichkeiten der jeweiligen Fragestellungen. Die
nachfolgenden Ausführungen beziehen sich hierauf. Auf eine
Differenzierung nach Gemeindegrößenklassen ist (vorläufig)
verzichtet worden.
100
08_hda_querschnitt_gesamt.indb 100
18.03.2008 16:10:00 Uhr
Energie-Controlling in kleinen und mittleren Kommunen? FACHBEREICH WIRTSCHAFT
Statement 1 • Der Umfang kommunaler Liegenschaften ist erheblich, ihre Bewirtschaftung erfolgt weit
überwiegend durch die Gemeindeverwaltungen selbst:
0
20
80
60
40
100
Wie viele bebaute Liegenschaften stehen
im Eigentum der Gemeinde? (n = 132)
bis 50
>50-100
>100-200
>200-300
>300-500
mehr als 500
68
38
15
5
1
5
Wie viele Prozent davon werden unmittelbar
von der Gemeinde bewirtschaftet? (n = 131)
bis 20 %
>20 %-40 %
>40 %-60 %
>60 %-80 %
>80 %-100 %
14
4
3
8
102
Statement 2 • (ohne Grafik) Der Informationsstand zu Lageplänen, Bauplänen und energiebezogenen
Objektdaten ist befriedigend bis gut. Defizite sind erkennbar, in ihrem Ausmaß aber nicht als dramatisch zu bezeichnen.
Statement 3 • Eine systematische und vollständige Erfassung der Energieverbrauchsdaten erfolgt in weniger als der Hälfte der Kommunen, wird aber von nahezu allen Kommunen für erforderlich gehalten.
0
20
60
40
80
100
Werden grundsätzlich die Verbrauchsdaten für Heizung,
Strom und Wasser systematisch erfasst? (n = 123)
Ja, vollständig
Ja, teilweise
Nein
58
49
16
Halten Sie ein dauerhaftes und systematisches
Energie-Controlling für erforderlich in Bezug auf die
Verbrauchsmenge? (n = 110)
Ja
Nein
103
7
Halten Sie ein dauerhaftes und systematisches
Energie-Controlling für erforderlich in Bezug auf die
Verbrauchskosten? (n = 110)
Ja
Nein
101
9
101
08_hda_querschnitt_gesamt.indb 101
18.03.2008 16:10:01 Uhr
QUERSCHNITT 22
Statement 4 • (ohne Grafik) Wenn eine Verbrauchsdatenerfassung erfolgt, ist die Gewinnung der Ergebnisse fehleranfällig (Eigenablesung) und die Speicherung organisatorisch und zeitlich unbestimmt.
Statement 5 • Mehr als die Hälfte der Gemeinden strebt keine Änderung der (überwiegend internen)
Verbrauchsdatenerfassung an, will sie aber in Richtung Automatisierung und verursachungsgerechte
Zuordnung entwickeln.
0
20
80
60
40
100
Sind Änderungen an der Verbrauchsdatenerfassung
beabsichtigt? (n = 113)
Ja
Nein
45
68
Wenn ja: Streben Sie die Erfassung der Verbrauchsdaten
in automatisierter Form und verursachungsgerechter
Zuordnung an? (n = 43)
Ja
Nein
38
5
Durch welche Personen/Institutionen würden Sie ein
Verbrauchscontrolling zukünftig durchführen lassen? (n = 27)
Durch den für die Technik Verantwortlichen
Durch Externe per Werkvertrag
Durch eine noch zu schaffende Stelle eines Energiebeauftragten
Durch andere
20
2
5
11
102
08_hda_querschnitt_gesamt.indb 102
18.03.2008 16:10:01 Uhr
Energie-Controlling in kleinen und mittleren Kommunen? FACHBEREICH WIRTSCHAFT
Statement 6 • Von einem Gebäudemanagement-Controlling-System wird in erster Linie die Aufdeckung
energetischer Schwachstellen erwartet, die eher im technischen Bereich als im Nutzerverhalten vermutet
werden.
0
20
40
60
80
100
Welche Anforderungen und Erwartungen würden Sie im
einzelnen an ein Controllingsystem für Gebäudemanagement
stellen? (Mehrfachnennung möglich) (n = 557)
Vergleichsmöglichkeit mit Gebäude-Standards
Vergleichsmögl. mit Gebäuden ähnlichen Nutzungsprofils
Darst. der bereinigten Verbrauchsmengen in zeitl. Entwicklung
Darstellung der Verbrauchskosten in zeitl. Entwicklung
Benennung potenzieller energetischer Schwachstellen
Vergleichsmöglichkeit mit theoretischen Werten
Ausarbeitung von Vorschlägen zur Verbrauchsreduktion
Sonstige
85
82
78
79
87
56
83
7
Viele Energiekosten lassen sich bereits durch ein geändertes
Nutzerverhalten einsparen. Wie hoch schätzen Sie das Einsparpotenzial (in Prozent des bisherigen Verbrauchs) für Energie
und Wasser in der Gemeinde ein? (Mittelwerte, Angaben in %)
Heizenergie
Strom
Wasser
15,13
13,13
11,17
103
08_hda_querschnitt_gesamt.indb 103
18.03.2008 16:10:02 Uhr
QUERSCHNITT 22
Statement 7 • (ohne Grafik) Tarifcontrolling findet schon jetzt in nahezu einem Drittel der Gemeinden
statt, der Anteil könnte auf zwei Drittel steigen.
Statement 8 • An der Entwicklung eines Energie-Controlling-Systems würden sich die Gemeinden
fachlich eher weniger beteiligen, finanziell in noch geringerem Umfang.
0
60
40
20
80
100
Wären Sie bereit sich an der Entwicklung
eines EDV-Programms zum Verbrauchscontrolling
fachlich zu beteiligen? (n = 113)
Ja
Nein
27
86
Wären Sie bereit sich an der Entwicklung eines solchen
Programms auch finanziell zu beteiligen? (n = 113)
Ja
Nein
10
103
Statement 9 • Dagegen stehen die Kommunen einem entgeltlichen Programmerwerb mit künftiger
Softwarepflege umso bereitwilliger gegenüber, je geringer die Kosten sind.
0
60
40
20
80
100
Welche Kosten für den Erwerb eines solchen Programms
werden als akzeptabel angesehen (n = 95)
bis zu 2.000 €
>2.000-4.000 €
>4.000-6.000 €
>6.000-8.000 €
>8.000-10.000 €
mehr als 10.000 €
51
27
11
2
2
2
Welche monatlichen Kosten für die Softwarepflege
werden als akzeptabel angesehen? (n = 96)
bis zu 50 €
>50-100 €
>100-200 €
mehr als 200 €
59
30
5
2
104
08_hda_querschnitt_gesamt.indb 104
18.03.2008 16:10:02 Uhr
Energie-Controlling in kleinen und mittleren Kommunen? FACHBEREICH WIRTSCHAFT
5 • Zusatzerkenntnisse aus vertiefenden Interviews
Fragen mit standardisierten Antwortmöglichkeiten haben ihren festen Platz in der sozialwissenschaftlichen Forschung.
Im Online-Fragebogen ist dieser Typus – von wenigen Ausnahmen abgesehen – verwendet worden. Das hat eine rasche
Auswertungsmöglichkeit eröffnet, Statistik-Programme haben wertvolle Unterstützung geleistet. Für die „Zwischentöne“
eignet sich das Verfahren weniger. Guter Brauch ist deshalb
die Ergänzung durch freie Interviews, bei denen zwar auch ein
Leitfaden vorgesehen ist, aber differenzierteres Antwortverhalten ermöglicht wird (was nicht notwendig die Auswertung
erleichtert). Als Bestandteil der Vorstudie waren deshalb von
Anfang an auch Interviews mit ausgewählten Kommunen vorgesehen. Der Online-Fragebogen enthielt eine Ankreuz-Möglichkeit, um Bereitschaft hierfür zu signalisieren. Das ist in
nicht wenigen Fällen erfolgt. Viele Gespräche wurden bereits
geführt, einige sind noch in Vorbereitung. Da der Vorgang noch
nicht abgeschlossen ist, sind die nachfolgenden Ausführungen
weniger Ergebnis systematischer Auswertung als eine Ansammlung auffälliger Einzelaspekte.
Energiemanagement und Energie-Controlling sind regelmäßig dem Namen nach zwar bekannt, befinden sich in der Praxis
aber nicht selten quasi auf Null-Niveau. Zwar ist ein Unbehagen
an steigenden Energieaufwendungen festzustellen, einer energischen Ursachenanalyse stehen aber vielfach „Rücksichtnahmen“ gegenüber. Es ist Tradition, dass Vereine, Verbände,
Gruppen usw. kommunale Liegenschaften unentgeltlich nutzen können. Wer will da schon monieren, dass Beleuchtungen
nicht ausgeschaltet werden, Kühlschränke ungefüllt auf
Hochtouren laufen oder die Heizung noch gemütliche 24 Grad
produziert, auch wenn sie gar nicht mehr benötigt werden. Für
welchen Zweck sollten Energieverbräuche festgehalten und
dokumentiert werden, wenn doch „nichts passiert“, Rechnungen klaglos von der Kämmerei gezahlt werden, die die Liegenschaftsabteilung möglicherweise nicht einmal zu Gesicht
bekommt? In solchen Fällen mag schon als Riesenfortschritt
angesehen werden, wenn trotzdem eine systematisch(er)e und
regelmäßigere Energiedatenerfassung durchgesetzt und eine
Objektzuordnung vorgenommen wird. Die bloße Dokumentation von Verbräuchen kann Energiekostenbewusstsein bewirken und zu sparsameren Umgang mit Strom, Gas und Wasser
motivieren. Für Gemeinden, die sich in solcher oder ähnlicher
Situation befinden, ist fast schon eine Null-Version von Software-Unterstützung von Vorteil, wenn sie nur Ordnung in den
Energiedaten-Wirrwarr bringt, ohne gleich Benchmarking o. ä.
zu betreiben.
Auf der anderen Seite befinden sich Gemeinden, deren Dokumentation vorbildlich ist und in jährlichen Energieberichten gipfelt. Sie fassen gebäudespezifisch die Verbräuche von
Strom, Wärme und Wasser zusammen, die von den Hausmeistern monatlich ermittelt und in eine Datenbank eingegeben
werden. Regelmäßig ist auch eine Witterungsbereinigung
enthalten. „Ausreißer“ lassen sich so leicht erkennen. Wenn
auch noch die energiebezogenen Gebäudedaten und die Anlagentechnik mit erfasst sind, lassen sich auf Grundlage der
(jährlich fortzuschreibenden) Energieberichte mit geringem
Zusatzaufwand Planungs- und Wirtschaftlichkeitsrechnungen
für Energieeinspar-Investitionen durchführen. Ob für Gemeinden dieses Typs noch die angestrebte nutzerfreundliche Software-Lösung nötig ist, mag fraglich bleiben. Immerhin können
sie Vorbildfunktion für die Entwicklungsprozesse derjenigen
Kommunen wahrnehmen, die erst am Anfang eines nachhaltigen Energie-Controllings stehen.
Misstrauen ist gegenüber externem Energiemanagement
festzustellen. Insbesondere Contracting-Angebote stoßen auf
große Vorbehalte. Sie gehen teils auf schlechte Erfahrungen
zurück (wobei offen bleibt, ob diese nur so empfunden wurden).
Auch die Langfristigkeit der abzuschließenden Verträge stört.
Dass man nicht mehr „Herr des Verfahrens“ ist, wird als entscheidender Nachteil empfunden. Das stärkt den Projekt-Ansatz, „eigenes“ Energie-Controlling zu ermöglichen, indem die
dafür erforderlichen (einfachen) Instrumente der Verwaltung
zur Verfügung gestellt werden.
105
08_hda_querschnitt_gesamt.indb 105
18.03.2008 16:10:03 Uhr
QUERSCHNITT 22
6 • Anforderungen an eine Software-Lösung zum „einfachen“
Energie-Controlling
Bei einem Energie-Controlling, das zwar IT-gestützt verläuft,
aber nicht in die Hände von (externen) Spezialisten gegeben
werden soll, ist größter Wert auf einfachen und intuitiven Zugang zu legen. Der Benutzer ist mit den und nur den Abfragen
und Informationen zu konfrontieren, die für „sein“ EnergieControlling-Problem relevant sind. Im Einzelnen sind folgende
Teilbereiche zu organisieren:
• Stammdaten-Eingabe für die zu untersuchenden Objekte
(Name, Anschrift usw.)
• Objektspezifische Eingabe der Ist-Energieverbrauchsdaten
• Objektspezifische Eingaben zur Energiebedarfsermittlung
(Bauphysikalische Angaben zur Objektbeschaffenheit, installierte Anlagentechnik)
• Rückgabe von Energieverbauchs-Kennzahlen (z. B. spezifischer Heizwärmeverbrauch) und Energieverbrauchs-Zeitreihen
• Rückgabe von Informationen aus dem Vergleich von Bedarfs(Soll-) und Verbrauchs- (Ist-) Werten, gekoppelt ggf. mit einer energetischen Gebäudeklassifizierung
• Aufzeigen von Sanierungsbedarf, gekoppelt ggf. mit Maßnahmevorschlägen und Wirtschaftlichkeitsberechnungen
Bisherige Erfahrungen zeigen, dass nicht in jedem Fall eine
Sofort-Implementierung aller Komponenten erforderlich ist.
Für Kommunen, die erst am Anfang eines Energie-Controllings stehen, kann schon die Realisierung der Schritte 1., 2.,
und 4. Vorteile bringen, weil Energiebewusstsein geschaffen
wird. Von besonderer Wichtigkeit ist auch, dass schon (Teil-)
Informationen zurückgegeben werden, ohne dass alle Eingabedaten vorliegen (müssen). So lassen sich bestimmte Zeitreihen (z. B. für den Stromverbrauch) schon erstellen, auch wenn
die Gebäudedaten noch nicht erfasst sind. Es müssen energetische Schwachstellen schon im Zuge des Eingabeprozesses
aufgezeigt werden, nicht erst an dessen Ende. Das ControllingSystem muss vor Augen führen, dass Energie-Einsparung
auch schrittweise (und mit Erfolg) realisiert werden kann.
Im bisherigen Projektverlauf wurde besonderer Wert auf die
Gestaltung der Eingabemasken (für Energieverbrauch und
Energiebedarf) gelegt. Der Software-Nutzer soll anschaulich
und übersichtlich durch das System geleitet werden, die Zahl
erforderlicher Klicks so gering wie möglich ausfallen. Die Programmierung wurde in Flash vorgenommen. Einige Bespiele
sind im folgenden aufgeführt.
Abbildung 1 • Selektion der Bauwerkszuordnungskategorie nach EnEV 2007
Abbildung 2 • Eingabe der Flächen.
106
08_hda_querschnitt_gesamt.indb 106
18.03.2008 16:10:03 Uhr
Energie-Controlling in kleinen und mittleren Kommunen? FACHBEREICH WIRTSCHAFT
7 • Herstellung größerer Forschungszusammenhänge?
Das hier beschriebene Projekt hat den Charakter einer Vorstudie. Zu klären war, ob eine Software-Unterstützung einfacher
Art bei den potenziell betroffenen Kommunen auf Resonanz
stößt und ob eine solche Software-Lösung prinzipiell machbar erscheint. Beides muss nunmehr bejaht werden. Dass
indes für eine Komplett-Realsierung größere Forschungszusammenhänge erforderlich sind, war bereits im Projektantrag betont worden. Sie sind in der Zwischenzeit hergestellt,
wenn auch noch ausbaufähig. Eine in Energiefragen mehrfach
preisgekrönte Gemeinde hat ihre Mitarbeit zugesagt. Ein privates Beratungs- und Entwicklungsunternehmen für die Verund Entsorgungswirtschaft sowie die öffentliche Verwaltung
mit verzweigten internationalen Beziehungen ist an einem gemeinsamen (Fortsetzungs-) Forschungsantrag hochgradig interessiert. Weitere Partner, auch aus dem regionalen Umfeld,
sind willkommen.
Abbildung 3 • Identifikation der Energie-Referenzwerte
Kurzbiografie •
Prof. Dr. Hans-Jürgen Zubrod, Jg. 44, Dipl.-Wirtsch.-Ing. und
Dr. rer. pol. (TU Darmstadt), wiss. Mitarbeiter an den Instituten
für Makro- und Strukturplanung (TU Darmstadt) und Systemtechnik und Innovationsforschung (ISI Karlsruhe), Professor
für Wirtschaftswissenschaften an der Fachhochschule Darmstadt, Fachbereich Sozial- und Kulturwissenschaften, seit
1975. Umfangreiche Mitwirkung in Studienreformarbeit (u. a.
Modellversuchsleitung zur beispielhaften Verknüpfung von
Studien- und Weiterbildungsangeboten in Energiewirtschaft
und kommunaler Umweltplanung) und akademischer Selbstverwaltung (u. a. Rektor der Fachhochschule Darmstadt von
1979-1984). Gründungsdekan und Aufbau des Fachbereichs
Wirtschaft seit 1997, Planung und Realisierung des berufsbegleitenden Weiterbildungsangebots Internationale Betriebswirtschaftslehre. Derzeitige Projekte: „Energie-Controlling in
Kommunen“ und (mit Förderung des Hessischen Ministeriums
für Wissenschaft und Kunst) „Gestufte energiewirtschaftliche
Weiterbildung im Hochschulbereich“.
Abbildung 4 • Zuweisung von elektrischen Verbrauchern.
107
08_hda_querschnitt_gesamt.indb 107
18.03.2008 16:10:05 Uhr
QUERSCHNITT 22
KOMMUNALES ENERGIEMANAGEMENT UND CONTRACTING
DARSTELLUNG DER ERGEBNISSE VON
ZWEI BEFRAGUNGEN AUS DEN JAHREN 2006
UND 2007
1)
Autoren •
Martin Meyer-Renschhausen, Andreas Achilles und Klara Schroeder
1 • Einleitung
Die ehrgeizigen Ziele der EU und des Bundes zur Verminderung der Treibhausgasemissionen können nur realisiert werden, wenn nicht nur der Bund, sondern auch die Länder und
die Kommunen zielführende Programme durchführen. Dies
gilt insbesondere für die CO2-Minderung im Gebäudebestand.
Während für Neubauten anspruchsvolle Energiestandards
durch die Energie-Einspar-Verordnung (EnEV) vorgegeben
sind, fehlen derartige Regelungen in Gebäudebestand nahezu
vollständig. Dies gilt auch für die öffentlichen Liegenschaften
wie Universitäten, Schulen, Rathäuser, Sporthallen und Kindergärten. Die Durchführung von energetischen Sanierungsmaßnahmen hängt hier vom Engagement und den wirtschaftlichen Kalkülen der Entscheidungsträger ab. Vorliegende
Untersuchungen zeigen, dass die Gebietskörperschaften bei
der Sanierung ihrer Gebäude bislang keine Vorreiterrolle einnehmen. Im Gegensatz zur privaten Sektor müssen sie ihre
Leistungen (Liegenschaften) nicht im Wettbewerb vermarkten.
Untätigkeit bleibt unter diesen Bedingungen häufig folgenlos.
In Ansehung der Bedeutung des kommunalen Beitrags haben
sich zahlreiche Städte und Gemeinden im Rahmen von Lokalen Agenda 21 Erklärungen zu einer lokalen Nachhaltigkeitsstrategie und damit auch zu einer aktiven Klimaschutzpolitik
verpflichtet. Die Sanierung der kommunalen Gebäude spielt
in diesem Zusammenhang eine wichtige Rolle. Sie mindert
die Emissionen, entlastet langfristig den Haushalt und besitzt
eine wichtige Vorbildfunktion für die Bürger der Gemeinde.
Die großen Städte in Deutschland (München, Frankfurt, Berlin, Stuttgart etc.) besitzen für diese Aufgabe spezielle Abteilungen mit qualifiziertem Personal. Ihre Programme und
Erfolge sind in zahlreichen Veröffentlichungen dokumentiert.
Informationen über das klimaschutzpolitische Engagement
der kleineren Kommunen liegen dagegen nur in Einzelfällen
vor. Systematische Erhebungen zum kommunalen Energiemanagement kleiner und mittlerer Städte und Gemeinden
fehlen oder liegen lange zurück. Berücksichtigt man, dass
in Deutschland knapp 70 % der Bundesbürger in Städten und
Gemeinden mit weniger als 100.000 Einwohnern leben, so ist
dieses Informationsdefizit problematisch, da eine gezielte politische Unterstützung und Förderung der Kommunen kaum
möglich ist.
Das Projekt „Kommunales Energiemanagement” am Fachbereich Wirtschaft der Hochschule Darmstadt hat sich zum
Ziel gesetzt, diese Informationslücke zu schließen. Im Sommer 2006 wurde eine schriftliche Befragung sämtlicher Kommunen und Städte mit einer Einwohnerzahl zwischen 20.000
und 200.000 Einwohnern durchgeführt. Den 627 Kommunen
dieser Größenordnung2) wurde ein Fragebogen per email zugesandt. Von diesen haben 218 Kommunen ihren Fragebogen
ausgefüllt zurückgesandt, so dass ein Rücklauf von 34,8 % erzielt wurde. Die Angaben können als repräsentativ angesehen
werden. Eines der interessanten Ergebnisse der Studie war,
dass gut 40 % der Kommunen Energiesparmaßnahmen unter
Einbeziehung von externen Dienstleistungsunternehmen (Anlagen- und Einspar-Contracting) durchführen. Zugleich zeigte
sich, dass die Kommunen mit den Ergebnissen des Contractings in vielen Fällen nicht zufrieden waren. Im Rahmen eines
Anschlussprojektes wurden daher sämtliche Kommunen, die
Anlagen- oder Einspar-Contracting durchführen, hinsichtlich
ihrer Vorgehensweise und ihrer Erfahrungen mit ContractingProjekten befragt. Im Rahmen von telefonischen Interviews
konnten von gut 70 % der Kommunen mit Contracting auswertbare Informationen eingeholt werden. Im Folgenden werden
die wesentlichen Ergebnisse der Befragungen vorgestellt. Da
die Telefoninterviews erst im Dezember 2007 abgeschlossen
wurden, steht die detaillierte Auswertung noch bevor. Es können daher nicht immer quantitative Ergebnisse vorgetragen
werden.
2 • Bedeutung der kommunalen Energiekosten
Die Ausgaben für die Versorgung der kommunalen Liegenschaften mit Wärme, Licht und Wasser (ohne Abwasser) variieren je nach Zahl und Art der vorhandenen kommunalen
Liegenschaften. Im Durchschnitt gaben die Kommunen 2005
29,36 € je Einwohner (E) hierfür aus. Gegenüber 2004 sind die
Kosten um 6,7 % gestiegen.
Die Energieausgaben je Einwohner – und damit die Möglichkeit der Kosteneinsparung – variieren erheblich, sie liegen
zwischen 9 und 61 Euro. Großstädte mit 100.000-200.000 Einwohnern haben im Durchschnitt höhere spezifische Ausgaben
(34,0 € /E) als mittlere Kommunen mit 50.000-100.000 Einwohnern (29,6 € /E) und kleinere Kommunen mit unter 50.000 Ein-
108
08_hda_querschnitt_gesamt.indb 108
18.03.2008 16:10:07 Uhr
Kommunales Energiemanagement und Contracting FACHBEREICH WIRTSCHAFT
0
10
20
40
30
50
Kommunale Energieausgaben 2005 nach Bundesländern
in € / Einwohner
Durchschnitt
Andere
NRW
Niedersachsen
Hessen
Baden-Württemberg
Bayern
Abbildung 1 • Kommunale Energieausgaben 2005 nach Bundesländern
wohnern (28,1 € /E). Ausschlaggebend hierfür ist die Tatsache,
dass große Städte zentralörtliche Funktionen besitzen und
insbesondere weiterführende Schulen hier stärker vertreten
sind.
Eine Sonderrolle spielt Hessen. Abgesehen von den kreisfreien
Städten sind nicht die Kommunen, sondern die Kreise für die
Schulen und deren Energiekosten zuständig. Dies schlägt sich
in deutlich verminderten Energieausgaben je Einwohner nieder. Sie beliefen sich 2005 auf lediglich 15,50 € je Einwohner,
gegenüber 29,36 € /E im Bundesdurchschnitt (s. Abb. 1).
Nimmt man den Durchschnittswert von ca. 30 € je Einwohner,
so gibt eine Stadt mit 100.000 Einwohnern demzufolge rund
3 Mio. € für Energie und Wasser aus. Bei dem derzeitigen Energiepreisniveau kann ein großer Teil davon wirtschaftlich eingespart werden. Hierbei stehen – gegliedert nach der Amortisationszeit – 3 Ansatzpunkte zur Verfügung.
1 • Energiecontrolling und Durchführung nicht- oder geringinvestiver Maßnahmen im Rahmen des Energiemanagements
2 • Modernisierung von Heizungs-, Klima- und Belüftungsanlagen sowie Beleuchtungsanlagen
3 • Baulicher Wärmeschutz
Vielfältigen Erfahrungen zufolge können 5-10 % der verbrauchten Gas- und Strommengen ohne nennenswerte Investitionen
allein durch regelmäßige Kontrolle des Energieverbrauchs
(Energiecontrolling) und eine an den Bedarf angepasste Energiezufuhr eingespart werden, d.h. 150.000-300.000 € /Jahr 3).
Unterstellt man, dass ein Energiebeauftragter inklusive Büro
jährlich ca. 75.000 € kostet, so lassen sich die Kosten von 2-4
Energiebeauftragtenstellen allein durch die Kosteneinsparungen eines verbesserten Energiecontrollings decken4). Auch
für eine Kleinstadt mit 25.000 Einwohnern rechnet sich demzu1)
Wir danken Dr. H. Baedeker/Schwabach und Prof. Dr. H.-P.Litz /Uni Oldenburg für
wertvolle Hinweise bei der Erstellung des Fragebogens und des Auswertungskonzepts.
2)
Vgl. Statistisches Bundesamt, Statistisches Jahrbuch 2005, S. 38 f.
3)
Dies entspricht einer CO2-Minderung um ca. 600 bis 1200 t pro Jahr.
4)
Die Kosteneinsparungen sind i.d.R. wesentlich höher, da der Energiebeauftragte
neben der Kontrolle des Energieverbrauchs auch die Sanierung energierelevanter Sanierungen (Heizungsanlagen, Beleuchtung, bauliche Änderungen etc.)
begleitet und hierbei das strategische Ziel einer verbesserten Energieeffizienz
betont.
folge noch eine halbe bis eine ganze Stelle für das Energiemanagement. Aufgrund der günstigen Aufwands-Ertragsrelation
sollte der Ansatz „Verbesserung des Energiemanagements“
daher bei jeder Energieeinspar-Strategie im Vordergrund stehen. Zentrales Anliegen der Untersuchung war die Frage, inwieweit diese Möglichkeiten von den Kommunen ausgeschöpft
werden.
3 • Organisation und politische Unterstützung des
Energiemanagements
Ein wichtiges Indiz für die Bedeutung, die das Energiemanagement in einer Kommune einnimmt, ist seine organisatorische
Stellung. Eine Betonung der rationellen Energieverwendung
ist insbesondere dort zu vermuten, wo die Funktion des Energiemanagements organisatorisch hervorgehoben wird (und
nicht von anderen Ämtern „miterledigt“ wird). Es wurde daher
danach gefragt, inwieweit die Kommunen einen Energiebeauftragten bzw. eine Energieabteilung besitzen und ob ihm bzw.
ihr für Energiesparmaßnahmen ein spezielles Budget zur Verfügung steht.
Einen Energiebeauftragten oder eine Energieabteilung besitzen knapp 60 % der befragten Kommunen. In der Mehrheit
dieser Kommunen haben die Energiebeauftragten jedoch noch
vielfältige weitere Aufgaben, so dass für die Verbesserung der
Energieeffizienz nur wenig Zeit zur Verfügung steht. In 76,5 %
der Kommunen stehen dem Energiebeauftragten weniger als
50 % der Arbeitszeit hierfür zur Verfügung, in 22 % der Kommunen sogar weniger als 10 % (s. Tab. 1).
Arbeitszeit für das
Energiemanagement
Häufigkeit in Prozent
Kum.
Prozente
unter 10 %
29
22,0
22,0
10-30 %
56
42,4
64,4
30-50 %
16
12,1
76,5
über 50 %
15
11,4
87,9
100 %
6
4,5
92,4
100,0
nicht bekannt
10
7,6
Gesamt
132
100,0
Tabelle 1 • Arbeitszeit für Energieoptimierung
109
08_hda_querschnitt_gesamt.indb 109
18.03.2008 16:10:08 Uhr
QUERSCHNITT 22
Liegenschaftsamt 4%
Hochbauamt 18 %
Gebäudemanagement 48 %
Umweltamt 7 %
Sonstiges, mehrere Ämter 23 %
Abbildung 2 • Zuständigkeit für das Energiecontrolling bzw. Energiemanagement
Vergleicht man die Ergebnisse mit der oben angestellten Überlegung, dass sich auch für Kleinstädte eine halbe bis ganze
Energiebeauftragtenstelle lohnt, so kann man schlussfolgern,
dass die Kommunen offenbar die Möglichkeiten unterschätzen,
mit Hilfe von Verbrauchskontrollen und Verbrauchsoptimierung die Kosten und die Emissionen nachhaltig zu reduzieren.
Organisatorisch ist das Energiemanagement /Energiecontrolling in den meisten Fällen dem Gebäudemanagement (49,5 %)
bzw. dem Hochbauamt (18 %) zugeordnet. Nur in wenigen Fällen ist es dem Liegenschaftsamt bzw. dem Umweltamt zugeordnet. Da Hochbauamt und Gebäudemanagement in der Regel für den Bauunterhalt und die Betriebsführung der Anlagen
zuständig sind, finden Bauunterhalt und Energiemanagement
einer Organisationseinheit statt. Dies hat Vorteile in Bezug auf
die Kommunikation, kann aber dazu führen, dass das Controlling angesichts drängender Aufgaben im Bauunterhalt und im
Anlagenbetrieb vernachlässigt wird.
Ein Ansatzpunkt, die Schlagkraft des Energiemanagements
zu steigern, besteht darin, den Energiebeauftragten mit einem
eigenen Budget auszustatten, um hieraus (kleinere) Energiesparmaßnahmen zu finanzieren. In 37 % der Kommunen
mit Energiebeauftragten oder Energieabteilung stehen eigene
Haushaltsmittel für Effizienzinvestitionen zur Verfügung.
Welche Bedeutung der organisatorischen Stellung (Energiebeauftragten oder Energieabteilung) und der Zuweisung eigener
Haushaltsmittel für Effizienzinvestitionen zukommt, schlägt
sich bei der Umsetzung wirtschaftlicher Energiesparmaßnahmen nieder. Auf die Frage, welche Reaktion zu erwarten sei,
wenn eine nachweislich wirtschaftliche Energiesparmaßnahme vorgeschlagen würde, gaben nur 16 % aller Kommunen
ohne Energiebeauftragten oder Energieabteilung an, dass die
Maßnahme sofort umgesetzt würde. Von den Kommunen mit
Energiebeauftragten waren es mit 17 % kaum mehr. Von den
Kommunen mit Energieabteilungen – sprich mehreren Energiemanagern – antworteten jedoch 35 %, dass die Maßnahme
sofort umgesetzt würde. Von den Kommunen, in denen der
Energiebeauftragte oder die Energieabteilung über ein eigenes Budget verfügt, wurde in 34 % der Fälle eine sofortige Umsetzung signalisiert.
Die Ergebnisse zeigen, dass die Schaffung einer speziellen
Funktion „Energiemanagement“ eine notwendige, aber keine
hinreichende Voraussetzung für eine Verbesserung der Energieeffizienz darstellt. Die Einführung einer Energiebeauftragtenstelle, deren Inhaber überwiegend mit anderen Aufgaben
(Bauunterhalt etc.) beschäftigt ist, ist praktisch wertlos. Erst
bei entsprechender Ausstattung mit personellen, zeitlichen
und finanziellen Ressourcen (Energieabteilung und /oder eigenes Budget) ist eine nennenswerte Effektivitätssteigerung zu
erwarten.
Von Bedeutung für den Erfolg des kommunalen Energiemanagements ist die Unterstützung durch die Politiker. Räumt
das Stadtparlament den Zielen Energieeffizienz und Emissionsminderung eine hohe Priorität ein, so kann sich der Energiemanager darauf berufen und eine strittige Maßnahme
leichter durchsetzen. Als Indikator für die Bedeutung der Energieeffizienz im kommunalpolitischen Zielsystem kann die
Unterzeichnung einer lokalen Agenda 21 Erklärung betrachtet
werden. Die Hälfte der befragten Kommunen (50 %) hat eine
lokale Agenda 21 Erklärung unterschrieben; in 27 % der Fälle
war dies nicht der Fall oder es war nicht bekannt (23 %).
Ein signifikanter Zusammenhang zwischen der Unterzeichnung einer lokalen Agenda 21 Erklärung und einer Stärkung
des Energiemanagements kann nicht festgestellt werden.
Kommunen mit Agenda 21 weisen weder überdurchschnittlich
häufig Energiebeauftragtestellen auf, noch sind die Energiebeauftragten überdurchschnittlich häufig mit eigenen Investitionsmitteln ausgestattet, noch treten sie durch eine zügige
Umsetzung wirtschaftlicher Effizienzmaßnahmen hervor. Angesichts dieser Ergebnisse ist zu vermuten, dass die Unterzeichnung einer Agenda 21 Erklärung häufig nur ein Akt „symbolischer Politik“ ist, ohne nennenswerte Auswirkungen auf
das klimapolitische Engagement der Kommunen.
4 • Energiecontrolling
Die regelmäßige Erfassung und Auswertung von Energieverbrauchsdaten (Energiecontrolling) ist das Herzstück jedes
Energiemanagements. Sein Erfolg ist davon abhängig, dass
dafür ausreichende personelle und materielle Ressourcen bereitgestellt werden.
Kennzeichen eines erfolgreichen Energiecontrollings ist, dass
die Daten regelmäßig und zuverlässig erhoben, um Sondereinflüsse (Klima, Nutzungsänderungen etc.) bereinigt und
110
08_hda_querschnitt_gesamt.indb 110
18.03.2008 16:10:09 Uhr
Kommunales Energiemanagement und Contracting FACHBEREICH WIRTSCHAFT
zeitnah ausgewertet werden. Idealer Weise werden die Verbrauchswerte kontinuierlich maschinell erfasst und mit Hilfe
eines speziellen Programms automatisch ausgewertet. Nur
wenn Mehrverbräuche umgehend signalisiert werden, können
Fehler (falsche Einstellungen. Leckagen etc.) kurzfristig abgestellt werden. Wie sieht die Praxis in den Kommunen aus?
In 91 % der Kommunen findet eine regelmäßige Aufzeichnung
der Verbräuche statt: In 70 % aller Fälle erfolgt dies monatlich.
In der Mehrheit der Kommunen werden die Verbrauchsdaten
allerdings manuell erhoben, d.h. durch den Hausmeister abgelesen und in Listen eingetragen. In 39 % der Kommunen gibt
es die Möglichkeit zur elektronischen Fernauslese der Verbrauchsdaten, in der Regel (35 % der Kommunen) ist diese auf
„einige Gebäude“ beschränkt.
Die Möglichkeit der Kommunen, die erhobenen Daten zeitnah
auszuwerten, hängt in erste Linie von den EDV-Programmen
ab, mit denen die Daten erfasst und verarbeitet werden. 75 %
der befragten Städte und Gemeinden machten Angaben zu den
EDV-Programmen, mit denen sie die Verbrauchsdaten auswerten. In 50 % davon erfolgt die Auswertung mit Hilfe spezieller Energiedaten-Software, die gezielte Auswertungen und
die Erstellung von Energieberichten erlauben. Hierbei wurden
die Programme EKOMM, Akropolis und Easy Watt am häufigsten genannt. Die andere Hälfte der Kommunen nutzt Standardsoftware wie Excel oder Access. Fehlentwicklungen werden hier nicht automatisch angezeigt, sondern sind erst nach
Bereinigungen (Witterung, Abrechnungszeiträume) erkennbar.
Zwei Drittel aller Kommunen (66,8 %) führen eine derartige
Witterungsbereinigung durch.
Ein wichtiges Hilfsmittel des Energiemanagements und des
Energiecontrollings ist der Energiebericht. Er hat die Funktion, Einsparerfolge zu dokumentieren und auf Fehlentwicklungen aufmerksam zu machen. Dies geschieht, indem der
(witterungsbereinigte) Energieverbrauch des aktuellen Jahres
mit dem der Vorjahre verglichen wird. In 75 % aller Kommu-
5)
Berücksichtigt man, dass die Kommunen zwischen 20.000 und 200.000 Einwohnern im Durchschnitt 103 Gebäude besitzen, so sind dies für alle 627 Kommunen
rd. 64.580 Heizungsanlagen. Wenn im Durchschnitt 13,6 % der kommunalen Heizungsanlagen älter als 20 Jahre sind, so sind dies bundesweit 8.800 Heizungen
allein in dieser Gemeindekategorie.
nen wird ein Energiebericht erstellt. In 33 % der Fälle wird der
Energiebericht auch der Öffentlichkeit zugänglich gemacht.
5 • Anlagenmodernisierung und Einschätzung des
Einsparpotenzials
Einen wichtigen Schwerpunkt im Rahmen der kommunalen
Bemühungen um Minderung des Energieverbrauchs und der
Energiekosten spielen die Modernisierung der Heizungs- und
Beleuchtungsanlagen sowie der bauliche Wärmeschutz. Auf
die Frage, mit welchen Maßnahmen in den vergangenen Jahren die besten Einsparerfolge erzielt wurden, verwiesen 40 %
der Kommunen auf die Erneuerung der Heizungsanlagen. In
24 % der Fälle wurde die Wärmedämmung genannt, gefolgt
von der verbesserten Heizungsregelung im Zusammenhang
mit Verbrauchserfassung und Energiecontrolling (18 %). 16 %
der Kommunen nannten die Optimierung der Beleuchtung als
wichtigste Maßnahme.
Ein Indiz für das Qualitätsniveau der Heizungsanlagen ist die
Verwendung von moderner Brennwerttechnologie. Diese wird
in 23 % aller kommunalen Gebäude eingesetzt. Allerdings
werden nicht alle Einsparpotenziale im Bereich der Heizungsmodernisierung zügig ausgeschöpft: In 13,6 % der Gebäude befinden sich noch Heizungsanlagen, die älter als 20 Jahre sind5).
Hemmnisse im Bereich der Umsetzung von wirtschaftlichen
Einsparmaßnahmen offenbaren sich auch, wenn man die Reaktionen der Kommunen auf vorgeschlagene wirtschaftliche
Einsparmaßnahmen betrachtet. Auf die Frage nach den voraussichtlichen Folgen des Vorschlags einer Energiesparmaßnahme, „die sich nachweislich innerhalb weniger Jahre
amortisiert“, ist nur in 19,5 % der Kommunen eine sofortige
Umsetzung zu erwarten. In 35 % der Fälle wird sie abgelehnt
oder verschoben; in 44 % der Fälle kann der Vorschlag „unterschiedliche Folgen haben“, wobei kostengünstige Maßnahmen
eher realisiert werden als Maßnahmen mit hohem Investitionsaufwand.
Angesichts dieser Umsetzungshemmnisse ist es nicht verwunderlich, wenn von 43 % der befragten Kommunen das Einsparpotential der kommunalen Gebäude als „hoch“ bis „sehr
hoch“ eingestuft wird; von 49 % als „mittel“ und von 8 % als
„niedrig“.
111
08_hda_querschnitt_gesamt.indb 111
18.03.2008 16:10:10 Uhr
QUERSCHNITT 22
0
5
10
15
20
25
30
35
Zufriedenheit mit den Ergebnissen
des Anlagen-Contractings (in %)
ja zufrieden
nein
teilweise
noch nicht beurteilbar
31,5 %
11,2 %
32,6 %
24,7 %
Abbildung 3 • Zufriedenheit mit den Ergebnissen des Anlagen-Contractings
6 • Contracting
Die große Zahl alter Heizungen sowie die Zögerlichkeiten bei
der Umsetzung wirtschaftlicher Einsparmaßnahmen signalisieren, dass die Ausschöpfung von Einsparpotenzialen in vielen Kommunen an der Schwierigkeit scheitert, die Maßnahmen aus dem Investitionshaushalt zu finanzieren. Einen Weg
zur Überwindung derartiger Finanzierungshemmnisse bieten
das Anlagen-Contracting sowie das Einspar-Contracting.
Beim Anlagen-Contracting werden z.B. neue Heizungsanlagen vom Contractor vorfinanziert und die Kosten über den
Wärmepreis in Rechnung gestellt. Von dieser Form des Contractings machen 36 % der Städte und Gemeinden Gebrauch.
Überdurchschnittlich häufig wird das Anlagen-Contracting
von Großstädten mit über 100.000 Einwohnern genutzt (56 %).
Häufigkeit
Häufigkeit in Prozent
Gemeinde kann Maßnahmen
kostengünstiger durchführen
105
48,2
Kommunalpolitik unterstützt
kein Contracting
13
6,0
rechtliches Neuland
28
12,8
Kontrollverlust über
Liegenschaften
28
12,8
fehlende Informationen
12
5,5
andere Gründe
55
25,2
in Prozent
ja
78
36,1
nein
133
61,6
nicht bekannt
5
2,3
Gesamt
216
Tabelle 2 • Nutzung des Anlagen-Contractings
Die Zufriedenheit mit dem Contracting ist je nach ContractingVariante unterschiedlich. Mit den Ergebnissen des AnlagenContractings sind 31,5 % der Kommunen eindeutig zufrieden (s.
Abb.3). Dagegen sind 44 % der Befragten nicht oder nur teilweise zufrieden. Beim Einspar-Contracting sieht dieses Bild
freundlicher aus. Hier sind 51 % mit den Ergebnissen zufrieden,
während knapp 30 % nicht oder nur teilweise zufrieden sind (s.
Abb.4).
100,00
Das Einspar-Contracting, bei dem der Contractor in energiesparende Maßnahmen investiert und seine Investitionskos- Tabelle 4 • Gründe für den Verzicht auf Einspar-Contracting
ten ausschließlich über eingesparten Energiekosten zurückerhält, wird nur von 20 % der Kommunen genutzt. Auch hier Die Tatsache, dass einerseits die Zufriedenheit der Kommachen die Großstädte mit über 100.000 Einwohnern über- munen mit dem Einspar-Contracting vergleichsweise hoch
durchschnittlich häufig Gebrauch davon (32 %).
ist, andererseits aber diese Contracting-Variante nur relativ
selten zum Einsatz kommt, deutet darauf hin, dass dem Einspar-Contracting besondere Hemmnisse entgegenstehen. Die
Häufigkeit
in Prozent
Kommunen, die auf das Einspar-Contracting verzichten, wurden deshalb danach befragt, welches die wichtigsten Gründe
ja
44
20,9
hierfür waren. Als hauptsächlicher Grund wurde die Auffasnein
163
77,3
sung geäußert, dass die Gemeinde die Maßnahmen selbst kosnicht bekannt
4
1,9
tengünstiger durchführen könne (48 %). Des Weiteren ist von
Bedeutung, dass mit dem Einspar-Contracting „rechtliches
Gesamt
211
100,00
Neuland“ (13 %) beschritten werde und ein „Kontrollverlust
über die Liegenschaften“ (13 %) erfolge.
Tabelle 3 • Nutzung des Einspar-Contractings
112
08_hda_querschnitt_gesamt.indb 112
18.03.2008 16:10:10 Uhr
Kommunales Energiemanagement und Contracting FACHBEREICH WIRTSCHAFT
0
10
20
30
40
50
60
Zufriedenheit mit den Ergebnissen
des Einspar-Contractings (in %)
ja zufrieden
nein
teilweise
noch nicht beurteilbar
51,1 %
10,6%
19,1%
19,1%
Abbildung 4 • Zufriedenheit mit den Ergebnissen des Einspar-Contractings
Die in vielen Kommunen herrschende Auffassung, dass die
Kommune die Maßnahme kostengünstiger durchführen könne, signalisiert, dass das Einspar-Contracting in erster Linie
als ein Finanzierungsinstrument begriffen wird. In den Hintergrund tritt dabei, dass die Maßnahme – wie die Befragungsergebnisse zeigen – ohne Contracting überhaupt nicht durchgeführt wird und dass sich die Leistungen des Contractors
nicht nur auf die Bereitstellung und Finanzierung der Anlage
beziehen, sondern dieser auch einen Anreiz besitzt, die Anlage
während der Contracting-Laufzeit so effizient wie möglich zu
betreiben. Er übernimmt damit einen Teil der Energiemanagement-Aufgabe und entlastet die Kommune.
Kommunen, die das Einspar-Contracting nutzen, sind unter
dem Gesichtspunkt der Energieeffizienz sowie des Energiemanagements als „moderner“ einzustufen. Sie weisen weniger alte Heizungen auf (10,6 % der Fälle gegenüber 14,2 % bei
Kommunen ohne Einspar-Contracting); zugleich werden die
Energiedaten häufiger per elektronischer Fernauslesung erhoben (in 50 % der Fälle gegenüber 35,6 % bei Kommunen ohne
Einspar-Contracting) und mit einer speziellen EnergiedatenSoftware ausgewertet (in 70,5 % der Fälle gegenüber 48,5 %
bei Kommunen ohne Einspar-Contracting). Hierbei bleibt zunächst offen, ob die bessere Performance die Voraussetzung
oder das Ergebnis des Einspar-Contracting ist. Eine Verbesserung der Energieeffizienz als Folge des Contractings ist nur
dann zu erwarten, wenn das Contracting nicht nur vereinzelt
in einem oder zwei Gebäuden der Kommune, sondern in mehreren angewendet werde. Diese Frage war Gegenstand der
zweiten Erhebung, die im Herbst 2007 durchgeführt wurde.
7 • Erfahrungen mit dem Contracting – Ergebnisse der
Befragung 2007
Im Herbst 2007 wurden die Kommunen, die Contracting nutzen (Anlagen- und /oder Einspar-Contracting) eingehender
nach ihren Motiven und Erfahrungen mit dem Contracting
befragt. Im Zentrum des Interesses steht dabei die Frage, wie
viele Gebäude in den einzelnen Kommunen in das Contracting
einbezogen werden und worin die Gründe für die häufig skeptische Beurteilung des Contracting – insbesondere des Anlagen-Contracting – liegen. Die telefonische Befragung ist wie
die Befragung 2006 auf Kommunen mit 20.000 bis 200.000 Ein-
wohnern beschränkt. 21 Kommunen mit Einspar-Contracting
und rund 50 Kommunen mit Anlagen-Contracting nahmen an
der Befragung teil.
Das Erkenntnisinteresse der Befragung war auf die folgenden
Punkte konzentriert:
• Zahl der einbezogenen Liegenschaften
• Art der einbezogenen Liegenschaften (Schulen, Kindergärten etc.)
• Art des Contractors
• Laufzeit des Vertrages
• Beweggründe für das Contracting
• Maßnahmen des Contractors
• Investitionssumme des Contractors
• Zufriedenheit der Verwaltung mit dem Contracting
• Zufriedenheit der Nutzer mit dem Contracting
Im Folgenden werden die wichtigsten Ergebnisse vorgestellt.
Hierbei werden die Kommunen mit Einspar-Contracting und
mit Anlagen-Contracting separat betrachtet.
7.1 Erfahrungen mit dem Einspar-Contracting
Im Falle des Einspar-Contractings variiert die Zahl der einbezogenen Liegenschaften erheblich. In 50 % der Fälle beschränkt sich das Einspar-Contracting auf eine oder zwei Liegenschaften. In einem Drittel der Kommunen waren mehr als
10 Liegenschaften einbezogen. Hier wurden in der Regel Pools
von mehreren Gebäuden vergeben. Hinsichtlich der Art der in
das Contracting einbezogenen Liegenschaften standen Schulen im Vordergrund, gefolgt von Sporthallen, Verwaltungsgebäuden und Schwimmbädern. Contractoren sind Ingenieurbüros, Anlagenhersteller oder Energieversorger. Die Laufzeit
der Verträge variiert zwischen 6 und 15 Jahren; in der Hälfte
der Fälle beträgt sie 10 Jahre.
Als Motiv für die Einführung des Einspar-Contractings wurde
in den meisten Fällen die Überbrückung von Finanzierungsengpässen genannt. In einem Drittel der Kommunen mit Einspar-Contracting wurden die Projekte ausgeschrieben oder
zumindest teilweise ausgeschrieben; dies gilt speziell für
Kommunen, in denen in das Einspar-Contracting mehrere Liegenschaften umfasst (Pool). In der Mehrzahl der Kommunen
erfolgte die Vergabe des Projektes dagegen direkt. Die Ausschreibung ist folglich eher die Ausnahme als die Regel. Hilf113
08_hda_querschnitt_gesamt.indb 113
18.03.2008 16:10:11 Uhr
QUERSCHNITT 22
reich bei der Ausschreibung bzw. bei der direkten Aushandlung der Verträge waren Leitfäden, die von verschiedenen
Ministerien und Behörden zur Verfügung gestellt werden. Am
häufigsten genannt und am hilfreichsten war der Leitfaden
des hessischen Umweltministeriums.
Das Spektrum der Maßnahmen, die von den Contractoren
durchgeführt wurden, ist groß. In jeweils mehr als der Hälfte
der Fälle wurden die Verbesserung der Heizungsregelung und
die Erneuerung der Heizung genannt. Weitere Schwerpunkte
waren die Beleuchtung sowie im Falle von Schwimmbädern
der Austausch der Umwälzpumpen. In etwa 60 % der Fälle
sieht der Vertrag eine Einspar-Garantie vor. In 75 % der Fälle
liegt die garantierte Einsparung zwischen 18 und 30 %; in einigen Fällen liegt sie höher. Im Falle von Schwimmbädern wurden durch den Einbau von neuen Pumpen Strom-Einsparungen
von bis zu 70 % erreicht. Die von den Contractoren investierten
Beträge variieren zwischen 3000 € und 2,8 Mio. €. Die höchsten
Beträge entfallen naturgemäß auf Kommunen, die Pools vergeben haben. Aber auch dort, wo sich das Einspar-Contracting
auf nur ein oder zwei Gebäude beschränkt, werden vom Contractor zum Teil über eine Million Euro investiert.
Hinsichtlich der Zufriedenheit mit den Ergebnissen des EinsparContractings ergibt sich ein differenziertes Bild, abhängig davon ob nach der Zufriedenheit der Nutzer oder der Verwaltung
gefragt wird. Im Falle des Einspar-Contractings begrenzen
die Contractoren die Bereitstellung von Nutzenergie (Wärme,
Licht, etc.) auf das vertraglich festgelegte Mindestniveau (z.B.
Raumtemperatur von 21 °C), da sie nur so die ambitionierten
Einspargarantien erfüllen können. Dies hat in verschiedenen
Fällen zu Beschwerden der Nutzer geführt, insbesondere zu
Kritik an zu niedrig empfundenen Raumtemperaturen. Seitens der befragten Verwaltungen werden diese Probleme als
Umstellungsschwierigkeiten bezeichnet, da die Räume zuvor
vielfach überheizt waren. Werden dagegen Maßnahmen im
Bereich der Beleuchtung oder der Schwimmbäder (Umwälzpumpen) durchgeführt, liegen keine Nutzerbeschwerden vor.
Die Verwaltungen sind dagegen mit dem Ergebnis nahezu ausnahmslos zufrieden. Nur in einem Fall waren die Erfahrungen
so negativ, dass man kein Einspar-Conctracting mehr machen
würde. In drei Fällen war man teilweise zufrieden. Auf die Frage, was man im nach hinein anders machen würde, wurde vor
allem die Vertragsgestaltung angesprochen: Die Ausschreibungen und die technischen Vertragsdetails sollten konkreter
formuliert werden, um den Nutzen für die Kommune zu erhöhen. Darüber hinaus sollten robuste Prozeduren festgelegt
werden, welche die Zurechnung von Einsparungen im Falle
von Nutzungsänderungen regeln.
7.2 Erfahrungen mit dem Anlagen-Contracting
Die Fälle von Anlagen- bzw. Wärmeliefer-Contracting sind
wesentlich zahlreicher als die des Einspar-Contracting. Bei
der Befragung 2007 machten mehr als 50 Kommunen Angaben zu ihren Erfahrungen mit dem Anlagen-Contracting. Da
die Auswertung noch nicht abgeschlossen ist, werden im Folgenden nur einige zentrale Ergebnisse in qualitativer Form
dargestellt.
Beweggrund für Anlagen-Contracting ist in den meisten Fällen die erforderliche Sanierung einer Heizungsanlage. Das
Contracting dient dabei lediglich als Finanzierungsmodell, um
die finanziellen Engpässe der Gemeinde zu überbrücken. Contractoren sind in sehr vielen Fällen die örtlichen Energieversorger (Stadtwerke), an denen die Kommunen z.T. auch selbst
beteiligt sind. Der Vertrag wird zumeist direkt ausgehandelt.
Weniger als die Hälfte der Projekte wurde ausgeschrieben.
Hinsichtlich der Beurteilung der Contracting-Ergebnisse ergibt sich wie beim Einspar-Contracting ein differenziertes
Bild. Da im Falle des Anlagen- bzw. Wärmeliefer-Contractings
der Contractor keinen Anreiz besitzt, die Energiezufuhr auf
das notwendige Mindestmaß zu reduzieren, sind Nutzer-Beschwerden selten. Anders sieht die Bewertung durch die Verwaltung aus. Während der laufende Betrieb in der Regel gut
funktioniert und als problemlos beurteilt wird, wird das Anlagen-Contracting unter Kostenaspekten kritisch betrachtet.
Viele Kommunen gehen davon aus, dass sie die Projekte selbst
günstiger durchführen könnten, sofern die finanziellen Mittel
zur Verfügung stünden. Als Grund für die relativ hohen Kosten dieser Contracting-Variante wurde von einigen Kommunen
darauf verwiesen, dass die Raumtemperaturen höher seien als
von der Kommune erwünscht und auch die Wärmezufuhr zum
Teil in Zeiten erfolge, in denen die Gebäude nicht genutzt würden (z.B. in Schulen während der Ferien). Eine Verbesserung
der Wirtschaftlichkeit lässt sich aus Sicht der Verwaltungen
114
08_hda_querschnitt_gesamt.indb 114
18.03.2008 16:10:11 Uhr
Kommunales Energiemanagement und Contracting FACHBEREICH WIRTSCHAFT
dadurch erreichen, dass die Projekte nicht direkt vergeben,
sondern ausgeschrieben werden.
Kurzbiografien •
Dr. Martin Meyer-Renschhausen hat Soziologie und Volkswirtschaftslehre in Marburg und Oldenburg studiert. Er hat im
8. Schlussbemerkung
Die Kommunen haben in den vergangenen Jahren erhebliche Fach VWL promoviert und sich habilitiert und ist seit 1990 ProAnstrengungen unternommen den Energieverbrauch und die fessor für Energiewirtschaft am Fachbereich Wirtschaft der
Energiekosten zu mindern, häufig im Rahmen anstehender Sa- Hochschule Darmstadt.
nierungen (Heizungsmodernisierung, Wärmedämmung). Wie
die Daten zu den Aufgaben der Energiebeauftragten und zu Dipl. Energiewirt Andreas Achilles hat von 2002–2007 Enerden technischen Hilfsmitteln des Energiecontrollings zeigen, giewirtschaft an der Hochschule Darmstadt studiert und ist
werden die Möglichkeiten des Energiemanagements und des seit Ende 2007 freier Mitarbeiter bei der hessenEnergie in
Energiecontrollings noch immer unterschätzt. Unterschätzt Wiesbaden.
werden zudem die Möglichkeiten, die Modernisierung der Anlagen und die Effizienz des Energiemanagements durch Con- Dipl. Inform. Klara Schroeder war 1988–2004 Mitarbeiterin
tracting zu forcieren. Einspar-Contracting wird am ehesten am Fraunhofer Institut für Graphische Datenverarbeitung in
dort durchgeführt, wo das Energiemanagement ein gewisses Darmstadt und arbeitet seitdem an verschiedenen energieNiveau aufweist. Hier kennen die Energiebeauftragten ihre wirtschaftlichen Projekten an der Hochschule Darmstadt.
Handlungsmöglichkeiten und Grenzen und trauen sich zugleich die Ausgestaltung der Verträge mit dem Contractor zu.
Dort wo das Energiemanagement wenig entwickelt ist, wird
auf Contracting entweder gänzlich verzichtet oder es wird auf
das vertraglich weniger aufwendige Anlagen-Contracting zurückgegriffen. Werden die Projekte dann ohne Verhandlungen
an den örtlichen Energieversorger vergeben, so ist dies nicht
selten mit Enttäuschungen verbunden. Contracting an sich ist
demnach keine Garantie für eine effizientere Energieverwendung in den kommunalen Liegenschaften. Ein erfolgreiches
Contracting setzt ein qualifiziertes kommunales Energiemanagement voraus.
115
08_hda_querschnitt_gesamt.indb 115
18.03.2008 16:10:12 Uhr
QUERSCHNITT 22
PROJEKTBERICHTE
Seiten 118 – 121
BOLOGNA FÜR DIE REGION
EIN PROJEKT AM ÜBERGANG SCHULE – HOCHSCHULE
Gregor Bechtold, Pia Sue Helferich
Seiten 122 – 124
DIE WASSERVERSORGUNG DER SELEUKIDISCHEN FESTUNG
AUF DEM KARASIS / TÜRKEI
Prof. Dr.-Ing Mathias Döring
• Fachbereich Bauingenieurwesen
Seiten 125 – 127
ENTWICKLUNG EINES NEUEN FISCHAUFSTIEGS FÜR WASSERKRAFTWERKE
Prof. Dr.-Ing Mathias Döring
• Fachbereich Bauingenieurwesen
Seiten 128 – 129
NACHHALTIGE WASSERWIRTSCHAFT IN ARIDEN UND SEMIARIDEN GEBIETEN
DURCH NUTZUNG TRADITIONELLER VERFAHREN UND BAUWEISEN
Prof. Dr.-Ing Mathias Döring
• Fachbereich Bauingenieurwesen
Seiten 130 – 131
TECHNIK, TEAMS, TALENTE – FÖRDERUNG DER
NATURWISSENSCHAFTLICH-TECHNISCHEN BILDUNG
Prof. Dr. Volker Wiskamp
• Fachbereich Chemie und Biotechnologie
Seiten 132 – 133
UNTERSUCHUNGEN UND ISOLIERUNG VON SEKUNDÄREN PFLANZENSTOFFEN
AUS BYPRODUCTS DER LEBENSMITTELINDUSTRIE – ZWEI DIPLOMARBEITEN DES
FACHBEREICHS CUB IN WIEN
Prof. Dr. Wolfgang Fichtner, Eva Nowak und Helen Rickhoff
A.o.Univ.Prof. Dr. techn. Senad Novalin und Dipl.-Umw. Dipl.-Ing.(FH) Ulf Schubert
(Universität für Bodenkultur Wien)
• Fachbereich Chemie und Biotechnologie
Seiten 134 – 135
ARBEITSSCHUTZ BEIM BETRIEBLICHEN EINSATZ VON NANO-MATERIALIEN
Prof. Dr. Bernd Steffensen, Dipl. Wirt.-Ing. Christian Häcker
• Fachbereich Gesellschaftswissenschaften und Soziale Arbeit
Seiten 136 – 139
SÜDAMERIKA – NEUE MÄRKTE FÜR DEN IT-MITTELSTAND
Prof. Dr. Thomas Wilmer, Prof. Dr. Edith Rost-Schaude, Dr. Ruth Tobias, Florian Ludwig
• Fachbereich Gesellschaftswissenschaften und Soziale Arbeit
116
08_hda_querschnitt_gesamt.indb 116
18.03.2008 16:10:12 Uhr
PROJEKTBERICHTE
Seiten 140 – 143
DARMSTÄDTER INFORMATIONSRECHTSTAGE 2005–2008
Diana Chiampi Ohly, Rainer Erd, Thomas Wilmer
• Fachbereich Gesellschaftswissenschaften und Soziale Arbeit
Seiten 144 –147
SMART LABELS IM ELEKTRONIKSCHROTT –
BEITRAG ZU HERSTELLERVERANTWORTUNG UND PRODUKTINNOVATION
Georg Cichorowski und Martin Führ
• Fachbereich Gesellschaftswissenschaften und Soziale Arbeit
Seiten 148 – 151
UNTERSUCHUNG VON VOLKSWIRTSCHAFTLICHEN FOLGEWIRKUNGEN NACH
DURCHFÜHRUNG EINER BRACHFLÄCHENREVITALISIERUNG IM STADTBEREICH
Dr.-Ing. Georg Cichorowski, Prof. Dr. Martin Führ
• Fachbereich Gesellschaftswissenschaften und Soziale Arbeit
Seiten 152 – 153
ATLANTIS UNIVERSITY: GEMEINSAM LEHRINHALTE ENTWICKELN
Oliver Schneider, Udo Bleimann, Ingo Stengel und Felix Wagner
• Fachbereich Informatik
Seiten 154 – 156
ENTWICKLUNG MODERNSTER ABGASNACHBEHANDLUNGSSYSTEME AN EINEM
AUFGELADENEN 1,6-LITER-OTTOMOTOR
Prof. Dr.-Ing. Dietmar Ueberschär, Dipl.-Ing. Dieter Schulmeyer,
Dipl.-Ing. Mehmet Poyraz
• Fachbereich Maschinenbau und Kunststofftechnik
Seiten 158 – 161
WAS ZAHLEN SIE WIRKLICH? – DIE BEWERTUNG VON KREDIT-SONDERANGEBOTEN
ANWENDUNGSORIENTIERTE LEHRE AM BEISPIEL DER FINANZMATHEMATIK
Andreas Pfeifer
• Fachbereich Mathematik und Naturwissenschaften
Seiten 162 – 165
MODI – ENTWICKLUNG VON METHODEN UND ANWENDUNGSKOMPONENTEN ZUR
DYNAMISCHEN MODELLINTEGRATION IM ELEKTRONISCHEN GESCHÄFTSVERKEHR
Prof. Dr. Michael Rebstock, Janina Fengel (M.Sc.), Heiko Paulheim (B.Sc.)
• Fachbereich Wirtschaft
117
08_hda_querschnitt_gesamt.indb 117
18.03.2008 16:10:12 Uhr
QUERSCHNITT 22
BOLOGNA FÜR DIE REGION
EIN PROJEKT AM ÜBERGANG
SCHULE – HOCHSCHULE
Autoren •
Gregor Bechtold, Pia Sue Helferich
Die folgenden Ausführungen beschreiben das Projekt „Bologna für die Region“, das von Dezember 2006 bis November
2007 an der Hochschule Darmstadt stattfand. Zentrales Element des Projekts war eine Tagung am 03.09.2007.
Dialog ermöglichen – Das Projekt verfolgte das Ziel, Problemfelder aufzudecken und im Dialog mit Studienberaterinnen
und Studienberater sowie Lehrkräften Verbesserungen für
den Übergang Schule – Hochschule zu entwickeln.
Das Projekt im Überblick
Im Zuge der europäischen Studienreform, auch Bologna-Prozess genannt, werden Diplom- und Magisterabschlüsse auf Bachelor- und Masterabschlüsse umgestellt. Gemeinsam mit inzwischen 46 anderen europäischen Staaten hat sich Deutschland verpflichtet, bis 2010 die Ziele der Bologna-Erklärung von
1999 umzusetzen und den Aufbau eines europäischen Hochschulraums mit zu gestalten.
Die Umstellung auf das Bachelor-Master-System führt zu weitreichenden Änderungen, wie z.B. dem Leistungspunktesystem
(ECTS). Diese Veränderungen betreffen vor allem Studierende
und Studieninteressierte, aber auch so genannte Multiplikatoren, wie Lehrkräfte und Personen in Beratungsfunktionen.
Für diese Beteiligten entsteht ein erhöhter Informations-,
Kommunikations- und Beratungsbedarf. So stellen sich unter
anderem folgende Fragen: Wie sind die neuen Abschlüsse mit
den Diplom- und Magisterstudiengängen zu vergleichen? Sind
die neuen Abschlüsse international anerkannt und untereinander vergleichbar? Welche quantitativen und qualitativen Änderungen ergeben sich durch die neuen Studiengänge?
Großer Informationsbedarf zu diesen und verwandten Fragen
zum Bologna-Prozess konnte in Gesprächen mit Kolleginnen
und Kollegen beispielsweise auf Berufsbildungsmessen sowohl bei Lehrkräften als auch bei Schülerinnen und Schülern
festgestellt werden. Zudem bestätigte eine Umfrage, die in
der ersten Phase des Projekts Bologna für die Region an hessischen Schulen durchgeführt wurde, diese Annahme.
Die Ziele des Projekts, initiiert durch den Bologna-Beauftragten der Hochschule Darmstadt, können wie folgt zusammengefasst werden:
Informieren – Das Projekt hatte zum Ziel, vor allem Lehrkräfte über den Bologna-Prozess und die damit einhergehenden
Veränderungen für Studieninteressierte zu informieren.
Netzwerke bilden – Ziel war es auch, nachhaltige Netzwerke
zwischen Schulen und Hochschulen für den Übergang Schule –
Hochschule zu schaffen.
Im Zentrum des Projekts stand eine Tagung für Lehrkräfte und
Studienberaterinnen sowie Studienberater am 03. September
2007. Die Tagung stellte die zweite große Phase des Projekts
dar.
Kooperationspartner bei der Tagungsorganisation war das
Staatliche Schulamt Darmstadt-Dieburg. Unterstützt wurde
das Projekt weiterhin durch die Hochschulrektorenkonferenz
(HRK) und umgesetzt mit den Mitteln der Darmstädter Stiftung
für Technologietransfer.
Zu den weiteren Elementen des Projektes gehörte ein Internetangebot, das über den gesamten Projektzeitraum allen Interessierten unter www.bologna.h-da.de/projekt Informationen
zur Verfügung stellte.
Die Abbildung 1 verdeutlicht nochmals die einzelnen Projektschritte.
April
September
Dezember 2007
Projektstart
Vorstudie
Website
Tagung
Dokumentation
Abbildung 1 • Projektphasen im Überblick
Nun schauen wir uns die Ergebnisse der ersten Projektphase,
der Umfrage unter Lehrkräfte sowie Schülerinnen und Schülern näher an.
118
08_hda_querschnitt_gesamt.indb 118
18.03.2008 16:10:13 Uhr
PROJEKTBERICHTE
Phase 1 • Befragung – Großer Informationsbedarf bei
Schülerinnen und Schülern sowie Lehrkräften festgestellt
Durch den Bologna-Prozess entsteht bei Personen in Beratungsfunktionen, Lehrkräften sowie Studieninteressierten, wie
in der Einleitung beschrieben, ein erhöhter Informations-, Kommunikations- und Beratungsbedarf.
Die Umfrage wurde unter Lehrkräften, die Klassen der Oberstufe betreuen, sowie Schülerinnen und Schüler der zwölften
Jahrgangsstufe durchgeführt und gibt einen Überblick über
den Informationsbedarf an südhessischen Schulen.
Ziel der Befragung war es, die ersten Ansätze zur Tagungskonzeption im Rahmen des Projekts zu verifizieren.
Die Mehrheit der befragten Schülerinnern und Schüler (44 von
63) gab an, noch nie etwas vom Bologna-Prozess gehört zu
haben. Im Gegensatz dazu gaben alle befragten Lehrkräfte (15
Nennungen) an, dass ihnen der Bologna-Prozess ein Begriff
sei.
Ebenfalls alle der befragten Lehrkräfte finden es wichtig, über
den Bologna-Prozess informiert zu sein, da sie der Ansicht
sind, dass die Schule auf das Studium vorbereiten sollte.
Allerdings fühlt sich die Mehrheit der befragten Lehrkräfte nur
unzureichend über den Bologna-Prozess informiert. Fast alle befragten Schülerinnen und Schüler wünschen sich jedoch,
von ihren Lehrkräften über den Bologna-Prozess informiert
zu werden.
Lehrkräfte spielen für die befragten Schülerinnen und Schüler
bei Fragen rund um das Studium eine wichtige Rolle: Mehr als
die Hälfte der befragten Schülerinnen und Schüler (34 Nennungen) gaben an, sich bei ihrer Lehrkraft über Fragen zum
Studium zu informieren. Damit nehmen Lehrkräfte Platz eins
vor Studienberatern mit 32 Nennungen und den Freunden der
befragten Schüler mit 30 Nennungen ein. Erst danach nennen
die Schüler (23 Nennungen) ihre Eltern als Informationsquelle. Die Bundesagentur für Arbeit bildet mit 18 Nennungen das
Schlusslicht.
Die Hälfte der befragten Lehrkräfte in der Region Südhessen
fühlt sich neben dem Bologna-Prozess auch über die Kompetenzorientierung im Unterricht weniger gut informiert.
Bei der Frage nach negativen Aspekten, die Lehrkräfte sowie
Schülerinnen und Schüler mit dem Bologna-Prozess verbin-
den, machen sich beide Gruppen gleichermaßen Sorgen um
die Akzeptanz der neuen Studienabschlüsse. Hier wird überwiegend die mangelnde Anerkennung von Seiten der Wirtschaft genannt.
Am häufigsten geben Schülerinnen und Schüler neben der
mangelnden Anerkennung, „Unübersichtlichkeit“ und „Unsicherheit“ als negative Punkte an. Hier sind für sie vor allem die
„Umwälzungen“ der Studienstrukturen und die ihrer Meinung
nach „undurchschaubare Veränderungen“ verwirrend.
Schülerinnen und Schüler befürchten darüber hinaus eine
Verschlechterung bzw. Veränderung der Studienbedingungen.
Hier wurden Punkte genannt wie „weniger Veranstaltungen“,
„soll verschulter sein“ sowie „Studium ist weniger umfangreich als vorher“.
Die Lehrkräfte nennen neben der „mangelnden Anerkennung“
als weitere negative Aspekte den „Qualitätsverlust der Ausbildung“ sowie die „Modularisierung der Referendarausbildung“.
Bei der Frage nach den positiven Aspekten des Bologna-Prozesses geben Schülerinnen und Schüler sowie Lehrkräfte am
häufigsten die „Internationalität“ an, die durch die neuen Studienformen entsteht. Schülerinnen und Schüler sowie Lehrkräfte nennen hier beispielsweise „verbesserte Möglichkeiten
bezüglich des Arbeitsplatzes im Ausland“ oder auch die „internationale Anerkennung“ der neuen Abschlüsse. In diesem Zuge wird von Schülerinnen und Schülern auch eine „internationale Vergleichbarkeit“ der Abschlüsse immer wieder erwähnt.
Schülerinnen und Schüler sehen weiterhin die „Verkürzung
der Studienzeit“ ebenso wie die „Strukturierung“ der neuen
Studienprogramme positiv.
Diese Befragungsergebnisse flossen dann in die zweite große
Phase des Projekts ein, eine Tagung für Lehrkräfte, Studienberaterinnen und Studienberater sowie Personen die in Beratungsfunktionen an der Schnittstelle tätig sind.
Phase 2 • Tagung – Das Kernstück des Projekts
Den ersten Teil der Tagung bildete ein Informationsangebot
rund um den Bologna-Prozess auf der Basis der Umfrageergebnisse. Ein Ziel der Tagung war es, den Teilnehmenden ein
breites Spektrum an Informationen, wie etwa die Vorstellung
der neuen Studienstruktur, zu bieten. Darüber hinaus ergänz119
08_hda_querschnitt_gesamt.indb 119
18.03.2008 16:10:14 Uhr
QUERSCHNITT 22
ten Erfahrungsberichte aus der Praxis, z.B. welche Veränderungen haben sich für Studierende in einzelnen Studiengängen ergeben, das Angebot.
Im zweiten Teil der Tagung ermöglichten verschiedene Workshops Raum zum Austausch und Dialog. Ziel war es hier, gemeinsam mit Lehrkräften praktikable und nachhaltige Lösungen für Problemstellungen am Übergang Schule – Hochschule zu entwickeln und mögliche Kooperationen zu erarbeiten.
Die Tagung war als Lehrerfortbildung akkreditiert und für bis
zu 120 Teilnehmerinnen und Teilnehmern aus hessischen Gymnasien, Fachoberschulen und Beruflichen Schulen ausgelegt.
Abbildung 2 zeigt das Tagungsprogramm.
08:00 Uhr
Registrierung und Anmeldung
09:00 Uhr
Grußwort
Kultusministerin Karin Wolff
09:15 Uhr
Begrüßung
Prof. Dr. Bernhard May, Vizepräsident (h_da),
Dr. Lothar Scholz, Schulamtsdirektor
(Staatliches Schulamt Darmstadt-Dieburg)
09:30 Uhr
Der Bologna-Prozess als Herausforderung
für die Bildungslandschaft
Birgit Hennecke (HRK)
10:15 Uhr
Veränderungen in der Lehrerausbildung
nach Bologna
Beate Caputa-Wießner (Uni Gießen)
Dr. Wolfgang Lührmann (Uni Gießen)
10:45 Uhr
Kaffeepause
11:00 Uhr
Vorstellung des Bachelor-Master-Modells
am Beispiel des Fachbereichs Informatik
Prof. Dr. Katja Lenz (h_da)
11.45 Uhr
Durchlässigkeit im Hochschulsystem – Wege
zum Wunschberuf
Prof. Dr. Bernhard May (h_da)
12:30 Uhr
Mittagspause
13:45 Uhr
Workshops zur Auswahl
16:15 Uhr
Vorstellung der Ergebnisse im Plenum
17:00 Uhr
Ende der Tagung
Abbildung 2 • Tagungsprogramm
Abbildung 3 • Präsidentin Prof. Dr. M. Overbeck-Larisch, Kultusministerin
K. Wolff (v. l.)
Folgende Workshops standen am Nachmittag zur Auswahl:
Workshop 1 • Problemfelder und Herausforderungen am
Übergang Schule – Hochschule
In diesem Workshop wurden verschiedene Herausforderungen am Übergang Schule – Hochschule im Rahmen des
Bologna-Prozesses angesprochen, wie z.B. die Gestaltung der
Durchlässigkeit im Schul- und Studiensystem. Praktikable und
nachhaltige Lösungsansätze wurden erarbeitet und skizziert.
Workshop 2 • Neue Anforderungen an Schülerinnen und
Schüler
Wie werden aus Schülerinnen und Schülern Studierende?
Dieser Workshop hatte das Ziel, die neuen Anforderungen an
Schülerinnen und Schüler zu identifizieren und Möglichkeiten
der Umsetzung in Schule und Hochschule zu diskutieren.
Workshop 3 • Neue Anforderungen an Lehrkräfte – kompetenzorientiertes Unterrichten
Auch Lehrkräfte sehen sich durch die Umstellung der Studienstruktur und -prozesse mit neuen Anforderungen konfrontiert. In diesem Workshop wurden didaktische Ansätze erörtert, die sich aus der Diskussion um Bildungsstandards und
kompetenzorientiertes Lehren und Lernen für den Unterricht
ergeben.
Workshop 4 • Projekte und Kooperationen am Übergang
Schule – Hochschule
Um den Übergang von Schule zu Hochschule zu verbessern,
beschäftigte sich dieser Workshop mit konkreten Projekten
und Kooperationen am Übergang und diskutiert deren Umsetzung.
Workshop 5 • Shell-Studie: Wissenschaftliche Befunde zur
Sozialisierung von Jugendlichen und die Bedeutung für den
Übergang
Dieser Workshop beschäftigte sich mit folgenden Fragestellungen: Was bewegt Jugendliche heute? Wie läuft der Sozialisierungsprozess ab? Gibt es Veränderungen im Vergleich zu
früheren Jahren, die die Übergangsthematik betreffen?
120
08_hda_querschnitt_gesamt.indb 120
18.03.2008 16:10:14 Uhr
PROJEKTBERICHTE
Phase 3 • Fazit – Ergebnisse & Weiteres Vorgehen
Nach der Tagung, diente die dritte Phase der Sichtung der Ergebnisse und der Erarbeitung einer Dokumentation.
Folgende Schlüsse und Ergebnisse lassen sich zielen:
Deutlich wurde vor allem auf der Tagung, dass es ein Ziel sein
muss, eine Intensivierung und institutionelle Verankerung der
Zusammenarbeit zwischen Schule und Hochschule zu erreichen.
Die Ergebnisse