Outsourcing: Qualität steigern, Kosten senken

Vertriebsprozesse und Kundenservice auslagern – viele Unternehmen wollen damit Kosten sparen und die Qualität ihres Services verbessern. Allerdings sei dies kein Selbstläufer, erklärt Martin Vesper, ehemaliger Geschäftsführer von Yello Strom und heute CEO der digitalSTROM AG. digitalSTROM ist eine mehrfach ausgezeichnete und erfolgreiche Smart Home Technologie für jedes Zuhause.

Yello Strom zählt zu den bekanntesten Energiemarken Deutschlands. Mit verantwortlich dafür ist Martin Vesper. Er hat die Marke Yello und den Erfolg des Unternehmens zehn Jahre maßgeblich geprägt. Und er hat früh darauf gesetzt, Vertriebsprozesse und Teile des Kundenservices auszulagern.

„Zu den Kernkompetenzen von Markenunternehmen gehören der Aufbau und die Gestaltung von Kundenbeziehungen. Das operative Tagesgeschäft ist etwas völlig anderes. Wir haben uns damals bei Yello Strom dazu entschlossen, Vertriebs- und Servicethemen auszulagern, die über Distanz laufen – also via Telefon, Mail, Fax oder Brief.“

Einen ähnlichen Ansatz verfolgt Vesper bei digitalSTROM. Das Unternehmen entwickelt und vertreibt Produkte für das vernetzte Zuhause. „Wir fokussieren auf das Design des Systems und die entsprechende Hard- und Software. Wir sind aber weder Logistiker noch möchten wir selbst ein Call Center betreiben. Also lassen wir diese Aufgaben von Unternehmen durchführen, deren Kernkompetenzen in eben jenen Geschäftsfeldern liegen.“ Die Idee dahinter: „Wenn jeder Spezialist auf seinem Gebiet ist, steigt die Gesamtqualität für den Kunden.“

IT-Integration entscheidend

Wesentliche Voraussetzung allerdings sei eine tiefe Verschmelzung aller Prozesse auf IT-Seite, so Martin Vesper. „Eine gute Integration sorgt dafür, dass alle Services für den Endkunden aus einem Guss kommen und dass es keinen Bruch in der Prozesskette gibt.“

Wenn etwa digitalSTROM ein neues Hardware-Produkt einführt, gibt es ein Bild und einen Datensatz dazu, der im System hinterlegt ist und in allen dafür relevanten Prozessen zur Verfügung steht – „ob bei uns oder bei unseren Dienstleistern. Hier muss einfach alles reibungslos funktionieren.“

Ein zweiter Faktor neben der Steigerung der Qualität ist die Reduzierung der Kosten beziehungsweise der effiziente Einsatz von Budget. Martin Vesper: „Es geht nicht darum, dass das Personal beim Outsourcing-Partner weniger verdient. Der positive Kosteneffekt kommt durch Synergien, Skalierungen und Effizienzsteigerungen.“ Das beginnt bei der Telefonanlage und reicht bis zum Aufbau von Vertriebs- und Produktkompetenz. „Ein Dienstleister, der seine Services auch für andere Auftraggeber erbringt, kann daraus Synergien erzielen und wesentlich effizienter arbeiten.“

Die Anforderungen

Drei wesentliche Voraussetzungen seien zu erfüllen, damit die Kosten sinken und zugleich die Qualität steigt:

  1. Gemeinsames Qualitätsverständnis. Nur wenn sich Auftraggeber und Dienstleister in Sachen Qualität absolut einig sind, ist die Basis für erfolgreiches Auslagern gegeben.
  2. IT-Systeme müssen integrationsfähig sein. In jedem Prozessschritt müssen allen Beteiligten alle relevanten Daten zur Verfügung stehen. Ein Blick auf jedes Detail muss ebenso gewährleistet sein wie der Gesamtblick auf den Kunden mit allen dazugehörigen Daten.
  3. Zugang zu qualifizierten Mitarbeiter-Ressourcen. Der Dienstleister muss gegebenenfalls sehr schnell zusätzliches Personal zur Verfügung stellen, das über die erforderlichen Skills und gegebenenfalls das Spezialwissen über Verträge und Produkte verfügt.

Dabei geht es für Martin Vesper auch um Kompetenzen bei der Logistik: „Einige unserer Produkte werden innerhalb des Logistik-Prozesses umgebaut. Dabei müssen wir uns darauf verlassen können, dass unser Dienstleister auf qualifizierte Elektriker zugreifen kann.“

Wichtig sei auch eine enge und langfristige Partnerschaft. „Der Aufbau einer dauerhaften und auf Vertrauen basierenden Beziehung zu Ihren Kunden gelingt nur dann, wenn der Service-Partner dies in jeder Hinsicht mitträgt. Schließlich repräsentieren seine Teams Ihre Marke.“

Übrigens: Wie Yello setzt auch digitalSTROM seine Outsourcing-Themen seit vielen Jahren mit der BI-LOG-Gruppe um. „Unser Logistiker für digitalSTROM ist BI-LOG. Für Kundenservices und Vertriebsunterstützung arbeiten wir mit der BI-LOG-Tochter KundenProfi zusammen. Die Zusammenarbeit ist hervorragend.“

 

Bitte weitergehen – so funktionieren digitale Kauferlebnisse

Die E-Commerce-Branche hat in den vergangenen Jahren gelernt, wie ein Onlineshop technisch zu funktionieren hat. Jetzt diktiert der wachsende Wettbewerbsdruck neue Lerninhalte. Künftig geht es darum, wie der Mensch funktioniert, der einen Shop besucht. Digitale Kauferlebnisse sind gefragt. Und  Markenpflege.

Onlineshops von der Stange dürfen ab sofort getrost wieder zurückgehängt werden. Sie sind „outdated“ – es sei denn, der Shop positioniert sich als Billigformat und verkauft nur über den Preis. Wer das nicht will, für den führt kein Weg dran vorbei, die nächste Entwicklungsstufe des E-Commerce mit zu erklimmen: Der Onlineshop wird zum digitalen Flagshipstore, der die Menschen emotional auf die Marke einschwört, seine zentrale Funktion ist die Inszenierung der Produkte und der Marke. Denn nur dann stärkt er die Marke, formt deren Image – im Übrigen wesentlich kostengünstiger als klassische Werbekampagnen – und befruchtet alle Vertriebskanäle.

Dass diese Entwicklung ebenso logisch wie zwangsläufig ist, zeigt ein Blick auf den stationären Handel. Dort ist es für Anbieter längst ein Muss, sich stationär so zu inszenieren, wie es der Positionierung ihrer Marke entspricht. Dass Marketingverantwortliche diese Art des Marktauftritts jetzt auch auf ihre Onlineshops zu übertragen beginnen, ist nur konsequent.

Und führt direkt zum Multichannel-Ansatz: Die Conversion Rate eines Onlineshops von morgen muss sich nicht in erster Linie daran messen lassen, wie viele Besucher zu Online-Käufern werden. Vielmehr muss der Onlineshop die Schnittstelle sein, an der die Trennung zwischen den verschiedenen Kanälen aufgehoben wird. Der digitale Auftritt muss die Marke und damit das gesamte Geschäft stärken.

Hinzu kommt der vielzitierte Wettbewerbsdruck: Löst sich die Konkurrenz vom trocken technischen Auftritt und spricht ihre Kunden gezielt emotional an, schafft sie damit eine neue Qualität des Onlineshopping – und generiert eine neue Erwartungshaltung beim Verbraucher.

Der Trend hat bereits begonnen, und er wird sich wie immer in der digitalen Welt sehr rasch verbreiten. Denn der Kunde lernt schnell – und klickt auf Dauer nur noch die Shops an, die klare Strukturen und durchdachte Funktionalität mit angenehmer Einkaufs-Atmosphäre und Kauferlebnissen verbinden.

Spielwiese für Kreative

Für Shopdesigner tut sich damit eine große Spielwiese auf – allerdings eine, auf der es, siehe oben, eben nicht mehr mit Lösungen von der Stange getan ist. Shopbetreiber und Kreative, die digitale Kauferlebnisse verwirklichen wollen, werden künftig mehrere Disziplinen beherrschen und zu einem stimmigen Ganzen zusammenführen müssen: Online-Verhaltenspsychologie und sichere Bedienerführung sind ebenso gefragt wie betriebswirtschaftliches Denken und Marketing-Knowhow. Nicht zu vergessen Kreativität und die Fähigkeit, gerade auch Ideen jenseits des Mainstream in ein funktionales Shopdesign zu gießen.

Noch allerdings ist die Realität der meisten Onlineshops weit davon entfernt, diese Disziplinen aufblitzen zu lassen und mit stationären Flagshipstores gleichzuziehen, meint Tim Böker. Er ist Experte für Online User Experience Design und Geschäftsführer des auf E-Commerce spezialisierten Design-Unternehmens „Kommerz“. Sein Urteil: „Wer die Inszenierungen beispielsweise in den Flagshipstores von Esprit kennt und dann den Onlineshop der Marke besucht, könnte glauben, er habe sich verirrt.“

Während offline warme Farben vorherrschen und die emotionale Ansprache des Kunden zur Hochform stilisiert wird, herrscht online Eisschrank-Atmosphäre. Offline wie zufällig an die Wand gepinnte Schnappschüsse von Menschen, die mit der Kamera flirten – online unpersönlich-coole Profi-Models ohne jeglichen optischen Kontext.

Offline sympathische Unordnung und ein per Hand beschriftetes, schief hängendes Schild mit der Botschaft „If you feel good, you look good!“ – online akkurat aneinandergefügte Kästchenbilder auf nüchtern weißem Grund. „Das ist ein Paradebeispiel für eine Marke, die sich zwei völlig unterschiedliche Auftritte leistet. Wiedererkennung, Online-Inszenierung? Vergiss es.“

Dabei ist Esprit nur ein Beispiel, das für den Großteil der Shops steht. Eigentlich sei es ein absolutes `NoGo´, was sich heute in den meisten Marken-Onlineshops an die Öffentlichkeit traut: Gleichförmigkeit auf breiter Front, ein geradezu erschreckender Mangel an Ideen und Kreativität, kühles Technokraten-Layout statt emotionaler Anziehungskraft – von Markenpflege ganz zu schweigen.

Status quo: Kästchendesign

Das beginnt meist schon bei der Startseite: ein großformatiges Bild, wahlweise über die ganze Contentbreite oder noch mit Platz für eine Seitenleiste, ein paar Kästchen drunter, eine Leiste oben und gegebenenfalls eine weitere seitlich. Für „Dynamik“ sorgt allenfalls noch ein freihändig eingestreuter Textbaustein. Fertig. Der rote Faden heißt Langeweile.

Gelegentlich – und wenn ein farblich und in der Anmutung passendes Aufmacherfoto zur Verfügung stand – spiegelt die Startseite noch einigermaßen das stationäre Erscheinungsbild der Marke. Einen Klick weiter allerdings ist es meist schon vorbei mit der schönen Markenwelt: Wenig erkennbares Nutzen der Markenkraft, kein Wiedererkennen der teuren Plakat- und Fernsehwerbung, von klarer Markeninszenierung ganz zu schweigen.

Dem aufmerksamen Beobachter drängt sich der Verdacht auf, hier wird allzu häufig schlicht kopiert nach dem Motto: Zalando funktioniert, also machen wir einen Onlineshop nach dem gleichen Muster, nur mit unserem Logo. Dass man damit zwangsläufig seine eigene Marke verwässert –  eigentlich logisch.

Dass es auch anders geht, zeigt zum Beispiel Burberry: Hier verschmilzt die aufwändig inszenierte Welt der stationären Stores mit der digitalen Welt. Und das nicht nur optisch – hier wird Multichanneling gelebt und zum Nutzen der Marke umgesetzt. Hier werden Geschichten erzählt und großformatige Videosequenzen eingeblendet, das Look and Feel der Flagshipstores in den Metropolen dieser Welt – hier findet es sich wieder. Die Kunden erleben die Marke – und sie fühlen sich emotional angesprochen.

Online-Auftritt als Content Cloud

Fakt ist: Wer den Multichannel-Ansatz konsequent fahren will, wird nicht umhin kommen, die Basis-Inhalte online verfügbar zu machen. Im Grunde geht es bei der Verknüpfung von On- und Offline darum, den Online-Auftritt als Content Cloud zu nutzen, aus der sich die Offline-Stores bedienen – mit Optik, Inhalten und Services.

Stimmt die Markeninszenierung in der Cloud, wird daraus auf den Bildschirmen im stationären Shop eine perfekte Multichannel-Produktinszenierung. Gleiches gilt, wenn eine Marke irgendwo auf der Welt einen neuen Flagshipstore eröffnet, eine Modenschau oder ein anderes Live-Event inszeniert. Was liegt näher, als dieses Event in allen Shops live auf die Instore-Screens zu übertragen? So lässt sich die eine Inszenierung in Tokio oder Shanghai auch in London, Hamburg oder New York zur Imagepflege nutzen.

Natürlich lässt sich auch der Service mit einem guten Multichannel-Ansatz optimieren – und erst dann wird aus dem Marken- ein gutes Kauferlebnis. Sucht ein Kunde beispielsweise am Samstag im proppevollen Store nach einem bestimmten Produkt und findet das nicht in den Regalen, braucht er nicht zu warten, bis ein Verkäufer frei ist. Er sucht einfach auf dem Online-Terminal im Store oder auf dem Smartphone. Ist der Onlineshop gut gepflegt, wird er es nicht nur finden, sondern auch gleich erfahren, ob das gute Stück in diesem Shop am Lager ist. Falls ja, lohnt sich das Warten. Falls nein, kann er es sofort bestellen oder reservieren und in den Shop seiner Wahl – oder nach Hause – liefern lassen. So muss Multichannel-Service funktionieren.

Marke spielen, Nutzerführung optimieren, Informationstiefe bieten

Damit sind die wesentlichen Herausforderung für Online-Markendesigner umrissen: Sie müssen zuallererst eine angenehme Kaufatmosphäre schaffen. Das geschieht über digitale Attraktionen, die den Kunden emotional ansprechen und die Marke überzeugend ins rechte Licht rücken. Der Onlineshop muss eine Umgebung bieten, in der er sich sofort wohlfühlt und die er intuitiv erforschen kann. Dass da rational geprägte Erfahrungen eher stören, liegt auf der Hand. Wer denkt, blockiert seine Gefühlswelt. Auch deshalb muss die Nutzerführung hundertprozentig stimmen, und dem Besucher die Navigation so einfach und intuitiv wie möglich machen.

Gefragt sind Unterhaltung und Spaß, Appetitanreger, Kaufanreize und Mehrwert. Erlebniswelten, die die Alleinstellungsmerkmale der Marke sympathisch und klar vermitteln.

Im zweiten Schritt ist eine hohe Informationstiefe gefragt. Hat sich der Kunde zu einer Produktkategorie oder bereits zu einem Produkt durchgeklickt, findet er idealer Weise online alles, was er für eine Kaufentscheidung braucht. Egal, ob er dann online oder offline kauft. Multichannel eben.

Dies führt dazu, dass sich die Verzahnung zwischen Online und Offline in möglichst vielen Details und Mehrwert-Erlebnissen niederschlagen sollte. Das Ganze muss schließlich auf alle Kunden-Touchpoints hin optimiert funktionieren und erkennbar aus einem Guss sein: stationär, für den Desktop-PC, für Laptop, Tablet, Smartphone und welches Device in Zukunft sonst noch hinzukommen mag.

Die vielzitierte USP wird zur UEP – zur Unique Experience Proposition. Will sagen: Der Kunde bekommt immer Impulse geliefert, die ihn in genau die Gefühlslage versetzen, die er mit der Marke in Verbindung bringen soll. Kurz: Weniger Technik – mehr Erlebnis.

Damit diese Botschaft direkt, intensiv und ungefiltert wirkt, muss alles passen: Design, Emotion, Nutzerführung, Informationstiefe, Service. Man denke nur daran, wie man sich fühlt, wenn in einem Mega-Konzert mit stimmiger Lichtinszenierung plötzlich die Lightshow oder das Mikro des Sängers ausfällt. Das ganzheitliche Erlebnis ist futsch. So auch im Onlineshop: Alles muss reibungslos funktionieren, die Links müssen sitzen, da darf nichts ruckeln, und der Kunde sollte Ladezeiten am besten überhaupt nicht wahrnehmen.

Starke Marken gewinnen

Tim Böker: „Onlineshops können von anderen Websites und Social Networks noch viel in Sachen Nutzerführung und Microinteraction, also der kreativen, sorgfältigen und liebevollen Ausgestaltung von Details, lernen.“

Die nachfolgend genannten Beispiele sind noch keine makellose Musterbeispiele dafür, was Online-Markendesign kann und soll. Aber sie zeigen, in welche Richtung das Ganze geht – und dass die ersten Anbieter längst dorthin unterwegs sind.

Wozu das alles? Die Entwicklung des stationären Handels in den vergangenen 20 Jahren zeigt: In Zeiten von Überangebot und Verdrängungswettbewerb gewinnen starke Marken. Wie Online-Handel funktioniert, hat die Branche und haben die Kunden gelernt. Technik und Funktionalität sind selbstverständlich geworden. „Jetzt gilt es, die im stationären Umfeld gelernten Markeninszenierungen in die Onlinewelt zu übertragen. Und zwar rasch, denn die Digitalisierung ist der Turbo für unseren Alltag, und sie diktiert mehr und mehr die Rahmenbedingungen des Handels.“

Die Gestaltungs-Ebenen

Wer digitale Kauferlebnisse schaffen will, muss viele Details im Blick – und im Griff – haben. Und er muss vom Kunden aus denken und handeln. Hilfreich ist es dabei, sich an den unten genannten vier Design-Ebenen zu orientieren. Jede Ebene muss für sich stimmig sein und einer kritischen Prüfung standhalten. Und natürlich müssen die auf diesen Ebenen angesiedelten Elemente harmonisch aufeinander abgestimmt sein, um dem Besucher das angestrebte ganzheitliche Erlebnis zu bieten.

1. Interaction Design
Wie auf sonstigen Websites oder anderen digitalen User Interfaces geht es hier darum, die Interaktion zwischen dem Besucher und dem technischen System zu gestalten. In jedem Fall und mehr noch im Onlineshop gilt: Der Besucher hat ein bestimmtes Ziel – er will zum Beispiel ein konkretes Produkt finden, sucht Inspiration oder kommt mit dem Wunsch, seine digitale Shopping-Tour mit der Bestellung eines oder mehrerer Produkte abzuschließen. Zunächst gilt es, die verschiedenen Erwartungshaltungen des potenziellen Käufers zu definieren.

–    Das Interaction Design muss ihn bei der Erfüllung seiner Wünsche unterstützen. In  einem markenzentrierten Onlineshop muss es darüber hinaus die Sprache der Marke in Bild und Text annehmen. Die Marke muss im Dialog mit dem Kunden spürbar sein.

–    Markenkonforme Microinteractions bieten Differenzierungschancen. Hier kann die eCommerce-Branche noch von anderen digitalen Playern wie Google lernen.

–    Situativ gestalten. Die zentrale Aufgabe für den Shop-Designer macht sich an folgender Frage fest: Wie würde sich ein Kundenberater der Marke im stationären Shop in diesem Moment verhalten?

–    Menschliche Kommunikationsformen integrieren beziehungsweise imitieren. Beispiel: Viele Shops signalisieren etwa bei der Größenauswahl „Fehlermeldung“. Ein menschlicher Berater würde in einem Verkaufsgespräch nie den Finger erheben und seinem Kunden sagen, er habe einen Fehler gemacht.

–    Features im Sinn der Marke individualisieren. Heute wird allzu häufig die immer gleiche Vorlage abgerufen mit dem fragwürdigen Argument, in einem Onlineshop müsse das so sein.

–    Interaktionsdetails mit Emotionalität und Erlebnisreichtum aufladen.

–    Weniger Technik. Idealerweise nimmt der Kunde das technische System nicht wahr – er sinkt vielmehr in eine Markenwelt ein.

–    Responsive Design. Hierin steckt eine weitere zentrale Herausforderung: Wie verhält sich die Interaktion über alle Endgeräte hinweg? Aktuell hat nur eine Minderheit der Shops im deutschsprachigen Internet überzeugendes Responsive Design realisiert.

–    Aha-Erlebnisse verstärken das Gesamterlebnis. Als Marke sollte man immer eine positive Überraschung für den Nutzer bereithalten.

2. Information Design
Nicht nur die Interaktion muss intuitiv ablaufen und eine markenkonforme Umgebung schaffen. Auch die Informationen, die ein Shop zu bieten hat, müssen strukturiert für den Nutzer adäquat aufbereitet und dargestellt sein. Viele Onlineshops neigen dazu, den verfügbaren Platz mit einer maximalen Anzahl von Funktionen zu überladen. Hier hilft es, sich bewusst zu machen, weshalb der Kunde da ist: Er will die Marke erforschen, für ihn geeignete Produkte entdecken und diese gegebenenfalls bestellen und kaufen. Ein mit Navigationsfunktionen überladener Bildschirm verwirrt da eher und stört das ganzheitliche Erlebnis. Ein typischer Fehler: In der Mehrheit aller Fashion-Shops nimmt die Produktdarstellung auf einer Artikeldetailseite häufig nur etwa ein Drittel der Bildschirmbreite ein.

–    Neue Marken und Produkt konforme Wege finden, wie man mit großen Daten- und Produktmengen umgehen kann. Bemerkenswert: Alle Branchen präsentieren sich in dieser Hinsicht im eCommerce sehr ähnlich, obwohl unterschiedliche Produkte unterschiedliche Kaufentscheidungswege bedingen.

–    Individualisierung ist Trumpf. Die digitalen Möglichkeiten wirklich ausschöpfen, zum Beispiel: alternative Produktansichten anbieten oder Navigationswege nur bei Bedarf anzeigen.

–    Texte für den Nutzer konzipieren. Es ist inzwischen eine Unsitte, Textinformationen an den Anforderungen von Google & Co. auszurichten. Die Aufgabe: Wie lassen sich Texte nutzerfreundlich gestalten, ohne die Suchmaschinen zu enttäuschen.

–    Die richtige Balance zwischen Standardisierung und Kreativität finden. Klar ist: Der Nutzer braucht die Sicherheit einer gewohnten Benutzerführung. Das wird aber allzu oft als Argument genommen, nichts Neues auszuprobieren, nur zu kopieren und nach Schema F zu arbeiten. Der Mut, neue Wege zu gehen, darf nicht vorschnell der Nutzergewohnheit geopfert werden. Die meisten Kunden sind heute keine digitalen Neulinge mehr, sie finden sich sehr wohl zurecht, auch wenn der Shop nicht höchst standardisiert ist. Erlebnis heißt auch Überraschung.

–    Stationäre Inszenierungstechniken in den digitalen Kanal übersetzen. Produkte werden stärker emotional aufgeladen, wenn sie nicht nur in tabellarischer Anordnung angeboten werden.

–    Produkte in Gesamtzusammenhang stellen und dem Kunden dadurch einen Mehrwert bieten. Zum Beispiel: Alles für den Frühjahrsputz, für den Skiurlaub, für den Abend in der Oper…

3. Visual Design
Hier geht es um die Gestaltung der konkreten visuellen Oberfläche. Oberstes Gebot für einen Markenshop ist es dabei, das Corporate Design in den Mittelpunkt zu stellen.

–    Marken-Elemente spielen. Sie sollten aus anderen Medien so stimmig wie möglich in die digitale Welt übertragen werden. Die Marke muss erkennbar und als Unikat erscheinen.

–    Der erste Eindruck zählt. Ihn sollte man positiv beeinflussen und darauf aufbauend ein schlüssiges Gesamtbild erzeugen.

–    Die Heterogenität der Kundendisplays und ihre jeweiligen Einstellungen berücksichtigen.

–    Informationsdarreichung und Interaktionen unterstützen und den Kunden gezielt durch optische Signale lenken.

–    Den Wow-Effekt suchen. Die ästhetische Komponente eines Erlebnisses in den Mittelpunkt stellen und Eigenheit entwickeln.

–    Apples ehemaliger Skeuomorphismus scheint heute überholt. Wo bleiben die schlüssigen Ansätze im E-Commerce?

–    Erlebnis statt Technik. Nur weil es digital ist, heißt das noch lange nicht, dass es technisch aussehen muss.

4. Service Design
In seiner ursprünglichen Bedeutung war Service Design die Gestaltung von Dienstleistungen. Übertragen auf den Onlineshop heißt, das der gesamte Shop und vor allem der Bestellprozess ist Service, der bewusst gestaltet werden muss.

–    Den Gesamtprozess im Blick haben. Wann braucht der Kunde was an welcher Stelle? Welche Features sind für ihn und das Produkt überhaupt sinnvoll?

–    Ganzheitlich von A bis Z. Der komplette Serviceprozess eines Shops muss aus einem Guss gestaltet sein – von der Begrüßungsseite, bis die Ware beim Kunden ankommt, er sie auspackt, testet, behält oder gegebenenfalls zurückschickt.

–    Service Design ist ein hochkomplexer Prozess. Richtig umgesetzt, bietet diese Disziplin die Chance, markentypische Besonderheiten zu integrieren und eine menschlichere Atmosphäre zu schaffen.

Energiewende von unten

Die Energie der Zukunft wird dort gewonnen, wo sie verbraucht wird. Eine Vision, die schon heute für einige Privathaushalte und mittelständische Unternehmen Realität geworden ist. Mit kleinen, dezentralen Produktionseinheiten für Solarstrom, Energiespeichern und einem Batterie-Managementsystem können sie sich weitgehend vom öffentlichen Netz und den stetig steigenden Strompreisen abkoppeln. Erste Anlagen zur Eigenversorgung belegen: Es funktioniert.

Während die Energiewende in Deutschland öffentlich zerredet wird, nehmen immer mehr Verbraucher ihre Stromversorgung selbst in die Hand. Sie verbinden damit zwei Ziele: ihr selbst erzeugter Solarstrom ist umweltfreundlich, und er bringt ihnen handfeste finanzielle Vorteile. Denn mit einem Invest von weniger als 25.000 Euro lässt sich ein Einfamilienhaus mit Büro und Elektrofahrzeug komplett mit selbst produziertem Solarstrom versorgen – und der Strompreis für rund 25 Jahre auf dem heutigen Niveau festschreiben. Die ersten Systeme laufen bereits, und ihr Ertrag zeigt: die Rechnung geht auf.

Das Problem: Unausgeglichener Lastgang

Die Eigenversorgung von Privathäusern, Wohnungen oder ganzer Unternehmen mit Solarstrom scheiterte bislang zum einen an der Speicherung der gewonnenen Energie. Zum anderen steht der unausgeglichene Lastgang starr installierter Photovoltaik-Anlagen dem angestrebten Ideal entgegen, die gewonnene Solarenergie sofort zu nutzen. Beide Problemstellungen lassen sich mit nachgeführten Photovoltaik-Anlagen elegant lösen. Denn sowohl für die effiziente Speicherung als auch für den direkten Verbrauch ist ein ausgeglichener Lastgang – sprich: die gleichmäßige Produktion von Solarenergie den ganzen Tag über – erforderlich.

Zur Erklärung: Starr installierte PV-Anlagen haben um die Mittagszeit ihre Produktionsspitze, produzieren aber davor und danach relativ wenig Energie. Das bedeutet: Morgens und abends, wenn ein normaler Haushalt besonders viel Strom benötigt, liefern starre Systeme in der Regel nicht ausreichend Energie. Dies ist bei nachgeführten Anlagen wie etwa den MLD-Nachführsystemen von DEGER anders (MLD steht für Maximum Light Detection): Sie stellen üblicherweise auch zu diesen Tageszeiten genügend Solarenergie zum Direktverbrauch zur Verfügung.

Zweiter wesentlicher Faktor beim Betrieb eines Systems zur Eigenversorgung sind die Stromspeicher. Sie versorgen den Verbraucher mit Energie, wenn die Photovoltaik-Module keinen oder zu wenig Strom liefern.

Nachführung schont Stromspeicher

Auch bei der Speicherung bieten nachgeführte Systeme einen entscheidenden Vorteil. Denn die als Energiepuffer eingesetzten Batterien lassen sich mit gleichmäßigen Einspeisemengen wesentlich schonender aufladen als mit kurzen hohen Spannungsspitzen, wie sie für starre Systeme typisch sind. Dadurch kommt das System mit weniger Batteriekapazität aus – und die Lebensdauer der Stromspeicher verlängert sich signifikant. Als Faustregel gilt: MLD-Nachführung spart rund 30 Prozent Batteriekapazität.

Hinzu kommt der bereits beschriebene Effekt: Während die Sonne am Himmel steht – das gilt im Übrigen auch für Tage mit bedecktem Himmel – liefern nachgeführte Systeme in der Regel ausreichend Energie für den Direktverbrauch. Die Batterien kommen zu diesen Zeiten also nicht zum Einsatz. Beides wirkt sich positiv auf die Wirtschaftlichkeit des Gesamtsystems aus.

Überschuss sinnvoll nutzen

Mit dem Batterie-Managementsystem kann der Nutzer die Anlage zur Eigenversorgung nach seinen individuellen Wünschen und Rahmenbedingungen steuern. Zunächst wird der Solarstrom, der nicht direkt verbraucht wird, in die Stromspeicher geleitet. Sind die Batterien voll, kann die überschüssige Energie entweder ins Netz eingespeist oder einem anderen Verwendungszweck zugeführt werden – der Aufbereitung von Brauchwasser oder der Versorgung einer Heizungsanlage etwa. Ein Überschuss-Manager im Verteilerkasten steuert auch das ganz nach Bedarf beziehungsweise Priorität des Nutzers.

Davon ausgehend, dass in der Regel noch ein Anschluss an das öffentliche Stromnetz besteht, wird das Batterie-Management beispielsweise so eingestellt, dass die Batterien maximal zu 50 Prozent entleert werden. Ist dieser Minimalwert erreicht, ohne dass aktuell direkt produzierte Solarenergie verfügbar ist, bezieht die Anlage automatisch Strom aus dem Netz. Der Batteriepuffer lässt sich höher oder niedriger stellen. Die 50 Prozent machen Sinn vor dem Hintergrund, dass die Anlage bei Ausfall der öffentlichen Netze den Haushalt oder das Unternehmen auch dann mit Strom versorgen soll, wenn keine direkte Sonnenenergie verfügbar ist.

Der Weg zur autarken Energieversorgung

Wer sich für eine Anlage zur Eigenversorgung entscheidet, will in der Regel nicht Strom produzieren, um ihn ins Netz einzuspeisen und von der Einspeisevergütung zu profitieren. Umso mehr, als die Tage hoher Einspeisevergütungen gezählt sind – ein Trend, der längst weltweit eingesetzt hat. Sie werden in Deutschland in absehbarer Zeit unter 10 Cent pro Kilowattstunde sinken, die Gestehungskosten für Solarstrom mit nachgeführten Systemen liegen schon heute bei etwa 10 Cent pro Kilowattstunde.

Die Richtung ist klar: Den Nutzern solcher Anlagen geht es vor allem darum, sich von den öffentlichen Netzen und den steigenden Energiepreisen unabhängig zu machen. Vor allem für kleine und mittelständische Unternehmen, die nicht von den attraktiven Großkundentarifen der Energieversorger profitieren, kann die autarke Stromversorgung letztlich eine Frage der Zukunftssicherung sein. Sie können ihre Energiekosten langfristig solide kalkulieren – und dauerhaft auf dem heutigen Niveau festschreiben. Das heißt: Ihre Wettbewerbsfähigkeit steigt mit jeder Preiserhöhung der öffentlichen Energieversorger.

Keine Zweifel bestehen daran, dass die Strompreise das derzeitige Niveau nicht halten werden. So prognostiziert das Karlsruher Institut für Technologie in einem Gutachten von Mitte Mai 2012, dass die Strompreise in Deutschland bis zum Jahr 2025 um 70 Prozent steigen werden. Ein Wert übrigens, der für Großkunden gilt. Für Privathaushalte und kleinere Unternehmen dürften die Preise noch stärker steigen.

Positive Energiebilanz

Inzwischen liegen belastbare Ertrags- und Verbrauchsmessungen des seit Herbst 2011 laufenden Testsystems von DEGER und weiterer seither installierter Systeme vor. Sie zeigen: 22 Quadratmeter nachgeführte Solarmodulfläche decken den Eigenbedarf eines Einfamilienhauses mit angeschlossenem Büro und zwei Elektrofahrzeugen zu rund 115 Prozent ab.

Konkret: In den ersten fünf Monaten des Jahres 2012 produzierte das Testsystem rund 3.000 Kilowattstunden Solarstrom. Der Stromverbrauch des angeschlossenen Haushalts mit Büro und Elektrofahrzeugen bezifferte sich im gleichen Zeitraum auf rund 2.600 kWh.

Die positive Energiebilanz zeigt sich auch am Verhältnis von Netzbezug und Netzeinspeisung: Von Januar bis Mai wurden rund 610 kWh aus dem Netz bezogen. Eingespeist wurden in der gleichen Zeit rund 930 kWh.

Installiert sind in der Testanlage 18 Module vom Typ Sanyo 240 mit einer Gesamtleistung von 4.320 Watt peak. Sie lieferten im ersten vollen Kalenderjahr nach Inbetriebnahme stolze 7.525 Kilowattstunden Solarstrom – ein sensationelles Ergebnis, das selbst die Erwartungen von DEGER deutlich übertrifft. Sicher ist ein Teil davon wohl auch dem Standort zu verdanken: Das System hat freie Sicht vom östlichen bis zum westlichen Horizont. Und es ist in dieser Region sehr selten neblig. Damit liefert die Anlage nicht nur genügend Solarstrom für den Eigenverbrauch, sie unterstützt auch die Warmwasseraufbereitung des Hauses in durchaus nennenswertem Umfang.

Bemerkenswertes Detail: Die zwei Elektroautos brachten es im Zeitraum der ersten Messungen auf eine Gesamtlaufleistung von rund 6.000 Kilometern. Dafür verbrauchten sie rund 900 kWh Strom im Einkaufswert von rund 200 Euro. Rechnet man diese verbrauchte Energie aus der Bilanz heraus, hätte während der gesamten Messdauer kein Strom bezogen werden müssen. Zugleich aber wurden mit den Autos rund 400 Liter Benzin gespart, die bei den aktuellen Preisen mit mehr als 600 Euro zu Buche geschlagen hätten.

Ein funktionsfähiges Komplettsystem zur Eigenversorgung kostet inklusive Installation weniger als 25.000 Euro. Auf dieser Basis können die Nutzer ihren Strompreis für die nächsten 25 Jahre auf das jetzige Niveau festschreiben. In diese Kalkulation sind sämtliche Kosten eingerechnet – von der Anlage selbst über die Finanzierungskosten bis hin zu Wartung und Instandhaltung inklusive Kosten für Ersatzteile über die Dauer von 25 Jahren.

 

Weckruf nach Berlin

Die deutsche Solarbranche droht den Anschluss an die Weltmärkte zu verlieren. Die Politik muss umsteuern. Dies ist die zentrale Botschaft aus dem ersten Solarbranchentag Baden-Württemberg.

Franz Untersteller mochte nicht um den heißen Brei herumreden. „Der Photovoltaikbranche im Land geht es derzeit nicht gut“, konstatierte der grüne Umweltminister des Landes Baden-Württemberg,. „Das lässt sich nicht schön reden. Umso wichtiger ist es, dass das EEG korrigiert wird.“ Zumindest der Degressionsmechanismus und die Regelung zur Eigenverbrauchsbeteiligung müssten angepasst werden, um die festgelegten Ausbauziele zu erreichen.

Mit dieser Forderung an die Adresse von Bundeswirtschaftsminister Gabriel fand sich Untersteller auf dem ersten Solarbranchentag Baden-Württemberg am 2. November in Stuttgart in guter Gesellschaft. Fast alle Branchenvertreter waren sich einig: Die nächste Novellierung des EEG muss mehr als nur nachjustieren. Die Politik müsse wieder Rahmenbedingungen schaffen, die der Nachfrage in Deutschland neuen Schwung geben, so der Tenor.

Schlüsseltechnologie für Jahrzehnte

Dabei gehe es um weit mehr als nur die Binnennachfrage, erklärte Dieter Manz, Vorstandsvorsitzender des Maschinenbauers Manz AG und 1. Vorsitzender des Solar Cluster BW, dem Veranstalter des Branchentags. „Es geht um die weltweite Wettbewerbsfähigkeit der deutschen Wirtschaft in einer Schlüsseltechnologie für die nächsten Jahrzehnte. Wir haben viel Geld und Knowhow in die Entwicklung der Photovoltaik-Systeme investiert und mit dieser Pionierarbeit die Grundlagen für einen globalen Megatrend gelegt. Jetzt laufen wir Gefahr, den Anschluss zu verlieren.“

Und er unterstrich dies mit Zahlen. Die globale PV-Branche wachse seit rund 20 Jahren um durchschnittlich 50 Prozent jährlich. „Photovoltaik lohnt sich längst auch ohne Förderung.“ Weltweit würden in 2015 Anlagen mit einer Gesamtleistung von rund 55 Gigawatt peak installiert, im Jahr 2020 wahrscheinlich mehr als 100 Gigawatt, so Manz. „Das globale Potenzial ist riesig. Der Markt entwickelt sich rasant, nur nicht bei uns. Wenn wir jetzt aussteigen, ist das Wahnsinn.“

Um aber an diesem boomenden Markt dauerhaft zu partizipieren, „brauchen wir einen vitalen Heimatmarkt. Wie wollen wir unsere Maschinen an Investoren im Ausland verkaufen, wenn wir sie selbst nicht einsetzen.“ Er habe in Deutschland die letzte Maschine im Jahr 2010 verkauft.

Noch wird laut Dieter Manz etwa jedes zweite Solarmodul weltweit auf deutschen Maschinen hergestellt. „Die Zusammenarbeit zwischen Zell- und Modulherstellern, Forschungseinrichtungen und den Maschinenbauern war ein weltweit einzigartiges Erfolgsmodell. Wenn aber die Produktion als Element der Wertschöpfungskette fehlt, dann wird sich das rächen.“ Spätestens Ende 2016 müssten weltweit neue Produktionsstätten gebaut werden. „Die Frage ist: Sind wir dabei oder bauen die Chinesen ihre Fabriken selbst.“

Er hoffe sehr, „dass wir nicht die gleichen Fehler bei den Speichern machen. „Wir reden zurzeit über Speicher nur mit Chinesen und Amerikanern. Das kann nicht gutgehen.“

Rahmenbedingungen verbessern

Die Rahmenbedingungen in Deutschland müssten dringend verbessert werden. „Und wir müssen uns trauen, industriepolitische Maßnahmen zu ergreifen.“

Die damit in den Raum gestellte Option von Schutzzöllen oder anderen Abschottungs-Mechanismen hingegen ist nach den Worten von Matthias Machnig, Staatssekretär im Bundeswirtschaftsministerium, wenig hilfreich. „Wir brauchen faire Wettbewerbsbedingungen mit China, wir müssen erreichen, dass sie sich WTO-konform verhalten, das ist klar. Aber dass wir als eine der größten Exportnationen Handelsbeschränkungen welcher Art auch immer beschließen, ist kontraproduktiv.“

Der globale Energiemarkt befinde sich am Beginn eines massiven Umbruchs. Und Deutschland stehe nach wie vor an der Spitze der Entwicklung. „Energie aus herkömmlichen Quellen wird immer teurer, die aus erneuerbaren Quellen immer günstiger. Künftig wird der Energie- und Ressourcen-effizienteste Standort am besten im Wettbewerb bestehen.“ Im Übrigen sei klimaverträgliches Wirtschaften schon heute ein Wettbewerbsvorteil. Deutschland könne doppelt profitieren, „indem wir uns zugleich auch von den Energiemärkten entkoppeln.“

Enormes Innovationspotenzial

Inzwischen, so Matthias Machnig, sei die Frage nicht mehr, wie sich die erneuerbaren Energien in die alten Systeme integrieren ließen. „Heute ist unser Thema, wie wir die fossilen Energieträger in die Erneuerbaren integrieren.“ In den kommenden Jahren werde es darum gehen, „wie wir intelligente Verteilstrukturen und intelligentes Lastverhalten hinbekommen. Dabei sind Speichertechnologien das `missing link´, das wir entwickeln und integrieren müssen.“

Die erneuerbaren Energien, allen voran Photovoltaik und Windkraft, böten einen hervorragenden Nährboden für neue Geschäftsmodelle. „Ich sehe hier ein enormes Potenzial. Unser gemeinsames Ziel muss es sein, dass diese Technologien sich als Wachstums- und Innovationstreiber etablieren.“

Die Energiewende sei im Übrigen kein Thema für nationale Lösungen. Erforderlich sei ein EU-Binnenmarkt mit einem klaren EU-Rahmen. „Die Energiewende und die Versorgungssicherheit muss europaweit gedacht werden. Sie braucht Innovationen, Investitionen in die Netze, neue Geschäftsmodelle, eine industriepolitische Strategie und eine noch bessere Vernetzung der Akteure.“

Joachim Goldbeck, Geschäftsführer von Goldbeck Solar und Vorsitzender des Bundesverbandes Solarwirtschaft, wies darauf hin, dass in der Diskussion um die Energiewende drei Bereiche getrennt voneinander betrachtet sollten: Industrie-, Energie- und Umweltpolitik. „Industriepolitisch muss das Ziel sein, dass die deutsche Solartechnologie weltweit wettbewerbsfähig ist und bleibt. Energiepolitisch geht es um Versorgungssicherheit und Effizienz und – als neues Unterziel – die Transformation von zentralen zu dezentralen Versorgungsstrukturen. Und die umweltpolitischen Ziele sind Bewahrung unserer Umwelt und Klimaschutz. “

Energiepolitik Fehlanzeige

Was die umweltpolitischen Ziele angehe, sei man auf einem guten Weg. Industriepolitisch allerdings sei in den zurückliegenden Jahren wenig erreicht worden. „Und energiepolitisch wurden weder irgendwelche Ziele gesteckt noch erreicht.“ Die Folge: Die Photovoltaik in Deutschland sei in einem Wust von Gesetzen und Verordnungen gefangen.

„Die Kosten für Solarstrom sind seit den Anfängen um 80 Prozent gesunken. Die Gestehungskosten für Photovoltaik-Strom sind bei Vollkostenrechnung schon jetzt günstiger als Strom aus Gaskraftwerken. Dieses Modell wird heute weltweit genutzt, nur nicht in Deutschland.“ Hier sei die Politik gefragt. Sie müsse die Wettbewerbsfähigkeit deutscher Unternehmen strategisch unterstützen, so Goldbeck.

Vieles sei falsch gelaufen mit der Energiewende. So könne es nicht sein, dass ein Unternehmer, der 100.000 Euro in die Hand nimmt, um mittels PV-Eigenverbrauch 15.000 Euro im Jahr zu sparen, mit 2.400 Euro Abgaben belastet werde. Wer aber die gleichen Mittel in LED-Beleuchtung steckt und ähnliche Einsparpotenziale erzielt, müsse keinerlei Abgabe bezahlen.

Seine Forderungen an die Politik im Vorfeld der EEG-Novelle:

  • Keine Ausschreibungen für PV-Dachanlagen.
  • Keine Schlechterstellung von Mieterstrommodellen gegenüber Eigenverbrauch.
  • Das Zoll-Thema noch einmal prüfen.
  • Offenes Bekenntnis der Politik, dass Photovoltaik nach wie vor gewünscht ist.
  • Verlängerung der Speicherförderung.
  • Strom, der gespeichert wird, darf nicht mit Umlagen belastet werden.
  • Kleinverbraucher müssen am Strommarkt teilnehmen können.
  • Rohstoffe sollten dort, wo sie aus der Erde geholt werden, mit Umlagen belastet werden.

Dass PV heutzutage nicht mehr der Preistreiber sei, „das muss öffentlich gesagt werden – auch in Berlin“, resümierte Umweltminister Franz Untersteller. Und er teilte die Einschätzung, dass es um weitreichende Folgen für den Industriestandort Deutschland geht. „Die Frage ist doch, wie es uns gelingt, am anhaltenden globalen Boom der Photovoltaik wieder teilzuhaben, oder ob wir das anderen überlassen, zum Beispiel den Chinesen.“

 

Die Thesen

Der Solar Cluster Baden-Württemberg hat beim Solarbranchentag ein „Thesenpapier zur Solarenergie Baden-Württemberg 2020“ vorgelegt. Nachfolgend Auszüge.

I. Photovoltaik ist ein zentrales Element einer künftigen globalen Energieversorgung und die Voraussetzung für einen wirksamen Klimaschutz.

PV ist ein globaler Megatrend: Bis zum Jahr 2020 wird ein Weltmarktvolumen von mindestens 100 GW erwartet. Dies entspricht einem Umsatz von rund 110 Milliarden Euro allein für die PV-Module sowie zusätzlich in etwa dieselbe Größenordnung für Wechselrichter, Unterkonstruktion, Kabel und Installation.

Die Märkte wachsen vor allem außerhalb Europas: Bis zum Jahr 2012 war Europa der größte Markt weltweit mit einem Marktanteil von 59 Prozent, im Jahr 2013 ging der europäische Weltmarktanteil auf 29 Prozent zurück. Heute sind China, Japan und die USA die dynamischsten PV-Märkte weltweit. In vielen dieser wachsenden Märkte ist PV mittlerweile Kostenführer.

Photovoltaik in Deutschland lohnt sich: Die Stromkosten aus Photovoltaik liegen bei Großanlagen auch in Deutschland bereits auf oder unter dem Niveau neuer fossiler Großkraftwerke. Lokal selbst erzeugter Strom aus Photovoltaik ist in fast allen privaten wie gewerblichen Anwendungen deutlich günstiger als der Netzbezug. Dadurch entwickelt sich der Eigenverbrauch zu einem wesentlichen Geschäftsmodell.

Die Energieversorgung ist strategisch relevant und sollte Abhängigkeiten vermeiden helfen: Derzeit importiert Deutschland fossile Brennstoffe im Wert von fast 100 Milliarden Euro pro Jahr. Erneuerbare Energien bieten die Chance, diese historischen Abhängigkeiten aufzulösen.


II. Große Teile der baden-württembergischen Solarbranche sind nach wie vor gut aufgestellt, um an der dynamischen Entwicklung der PV teilzuhaben.

Marktchancen I: Deutsche Hersteller können international wettbewerbsfähig hochwertige PV-Komponenten (Silizium, Wafer, Solarzellen, Module, Wechselrichter, Aufständerungen etc.) produzieren. Die Politik sollte die Rahmenbedingungen so setzen, dass sich diese Produktion halten beziehungsweise weiter entwickeln kann.

Marktchancen II: Heute werden rund 50 Prozent der weltweit produzierten PV-Module auf deutschen und etwa die Hälfte davon auf baden-württembergischen Maschinen hergestellt. Diese Marktposition gilt es zu halten und auszubauen.

Marktchancen III: Die Integration dezentraler und fluktuierender erneuerbarer Energien gewinnt weltweit an Bedeutung. Deutsche Unternehmen haben langjährige Erfahrung in den Integrationsfragen; dieses Know-how sollte gestärkt und die internationale Verbreitung unterstützt werden.


III. Um Arbeitsplätze und Wertschöpfung in Baden-Württemberg und Deutschland zu halten und zu schaffen, muss der politische Rahmen weiterentwickelt werden.

Die aktuellen gesetzlichen Rahmenbedingungen in Deutschland verhindern den weiteren Ausbau der Photovoltaik und die Entwicklung neuer Geschäftsmodelle.

Hürden und Hindernisse

  • Das Image der Photovoltaik hat massiv gelitten, sie wird in der Öffentlichkeit zu Unrecht als Kostentreiber angesehen.
  • Ständig sich ändernde politische Rahmenbedingungen verunsichern Investoren und Bürger gleichermaßen und verhindern Investitionen.
  • Belastung Eigenverbrauch mit der EEG-Umlage
  • Die Projektierung von PV-Anlagen wird durch zahlreiche Gesetze und Vorschriften immer komplexer. Dies hält insbesondere ehrenamtlich getragene Marktteilnehmer und kleine Unternehmen zurück.
  • Unterscheidung zwischen Direktlieferung (volle EEG-Umlage) und Eigenverbrauch (30 – 40 Prozent EEG-Umlage)
  • Das öffentliche Haushaltsrecht benachteiligt in vielen Fällen eine Einsparung gegenüber einer einmaligen Investition.

Das Thesenpapier ist online abrufbar unter www.solarcluster-bw.de

 

Unerschöpfliche Energiequelle

Die Umwandlung unseres Energiesystems hin zu einer umweltfreundlichen und nachhaltigen Energieversorgung – ohne CO2-Ausstoß und ohne fossile Energieträger – hat längst begonnen. Eine zentrale Rolle dabei spielen Wärmepumpen. Davon sind Experten beim Freiburger Fraunhofer-Institut für Solare Energiesysteme ISE überzeugt. Eine Einschätzung, die auch Clemens Dereschkewitz, Geschäftsführer des Wärmepumpen-Herstellers alpha-innotec, teilt (siehe Interview „Auf den Sanierungsmarkt vorbereitet“).

Bislang dominieren Windräder und Photovoltaik-Anlagen, Pelletheizungen und Biogas das Thema regenerative Energiequellen. Daneben gibt es Umweltwärme, die in praktisch unerschöpflichem Maße zur Verfügung steht, erklärt Professor Hans-Martin Henning vom Fraunhofer-Institut für Solare Energiesysteme ISE. „Diese Energie werden wir zunehmend nutzen müssen.“

Wenn man unser Energiesystem und mögliche Lösungen im Sinne der Umwelt betrachte, werde rasch klar: „Gute Gebäudedämmung und Strom aus regenerativen Quellen allein reicht nicht.“ Solarthermie könne lediglich als Ergänzung zu anderen Elementen fungieren, und auch Biomasse sei nicht geeignet, die Transformation des Systems in großem Stil voranzubringen. „Das ist ein zu knappes Gut.“

Was heute kaum genutzt wird, ist die Wärme aus unserer Umwelt. Und genau das ist die Domäne der Wärmepumpe. Eine elektrische Wärmepumpe macht aus jeder eingesetzten Kilowattstunde Strom bereits heute das Drei- bis Fünffache an Wärmeenergie. Kommt dieser Strom aus dem öffentlichen Netz, was zumindest heute noch die Regel ist, dann spielt der Energiemix eine wesentliche Rolle. „Je höher der Anteil von `grünem´ Strom im Netz, desto besser die CO2-Bilanz der Wärmepumpe.“

Primärenergiefaktor für Strom sinkt erneut

Dies spiegelt sich in den gesetzlichen Vorgaben wider, wenn es um die energetische Bilanz eines Gebäudes und dessen Heizanlage, um Fördergelder und günstige KfW-Kredite geht. Eine wichtige Größe hierbei ist der sogenannte Primärenergiefaktor PEF.

Der PEF wird vom Gesetzgeber für jeden Energieträger (Kohle, Öl, Gas, Holz, Strom etc.) festgelegt. Er ist das Maß für den Energiebedarf in der gesamten Umwandlungskette. Im Falle von Strom gehört dazu beispielsweise der Abbau von Kohle, deren Transport zum Kraftwerk und die Verstromung bis hin zur Verteilung der elektrischen Energie an den Endverbraucher.

Je mehr „grüner“ Strom produziert und ins Netz eingespeist wird, desto niedriger der Primärenergiefaktor für Strom insgesamt. Und desto günstiger werden elektrisch betriebene Heizsysteme unter dem Aspekt ihrer CO2-Emission bewertet.

Aufgrund des stetig steigenden Anteils erneuerbarer Energien in Deutschland wurde in der Energieeinsparverordnung (EnEV) der PEF für Strom in den vergangenen Jahren bereits dreimal nach unten korrigiert – von ursprünglich 3,0 auf mittlerweile 1,8. Dieser neue Wert gilt seit 1. Januar 2016. Wichtig in diesem Zusammenhang: Die der Umgebung entnommene Wärmeenergie hat den PEF 0,0.

Gute Karten also für die Wärmepumpe. Langfristig werde sie wahrscheinlich das wichtigste Versorgungssystem für Gebäude, meint der Fraunhofer-Experte. „Dazu werden wir allerdings verstärkt Wärmespeicher brauchen. Zum einen, um die Systeme an das Bedarfsprofil des einzelnen Verbrauchers anzupassen, zum anderen aber auch aus Systemsicht.“

Marktdesign muss Schwankungen ausgleichen

Eine wesentliche Herausforderung bei der Gestaltung unseres künftigen Energiesystems nämlich sei es, die hohe Volatilität der Erneuerbaren zu managen. Denn die über Wind und Photovoltaik eingespeisten Strommengen schwanken bekanntlich stark. „Das Marktdesign muss diese Schwankungen so weit wie möglich ausgleichen und Spitzenlasten und Spitzeneinspeisungen abfedern.“

Ein Steuerungsmechanismus sind variable Stromtarife, die sich an der jeweils aktuellen Netzauslastung orientieren. Stichwort „Smart Grid“, das intelligente Netz. Wer seine Wärmepumpe mit einem Pufferspeicher kombiniert, kann davon in Zukunft profitieren. „Viele Wärmepumpen sind für den Smart-Grid-Betrieb bereits vorbereitet. Diese Geräte werden künftig dann Wärme erzeugen, wenn der Strom günstig ist und diese Wärme zwischenspeichern.“

Für den Verbraucher, der sich mit dem Gedanken trägt, eine Wärmepumpe zu installieren, steht in aller Regel die Wirtschaftlichkeit ganz oben auf der Prioritätenliste. Und da sieht Hans-Martin Henning die Politik in der Pflicht. „Strom ist heute wesentlich stärker durch Abgaben belastet als fossile Brennstoffe. Das ist nicht im Sinne der Energiewende.“

Auch die CO2-Abgabe auf Basis des heutigen Zertifikate-Handels sieht der Experte kritisch. Sie betreffe nur die Kraftwerksbetreiber, nicht jedoch die Brennstoffhändler – auch das ein Ungleichgewicht zu Lasten der erneuerbaren Energien. „Die Politik sollte den Marktrahmen so gestalten, dass Strom günstiger wird.“ Denn Strom sei durch den Anteil der Erneuerbaren heute schon oft umweltfreundlicher als jeder fossile Brennstoff.

Wärmepumpe wird sich durchsetzen

Noch dominiert die Wärmepumpe den Heizungsmarkt in Deutschland nicht – der Anteil installierter Einheiten in Neubauten liegt derzeit im Bundesdurchschnitt bei 37 Prozent, in Sanierungsobjekten deutlich darunter. Doch der Trend zeigt nach oben. Dass er sich in den nächsten Jahren noch verstärken wird, davon sind die Wissenschaftler beim Fraunhofer ISE überzeugt.

Schon jetzt ist der Wärmepumpenmarkt in Skandinavien, insbesondere in Schweden und der Schweiz, bereits sehr ausgeprägt, wie Dr.-Ing. Marek Miara erklärt. Er leitet die Gruppe Wärmepumpen am Fraunhofer ISE. „In beiden Ländern liegt der Anteil von Wärmepumpeninstallationen in neuen Wohngebäuden bei über 80 Prozent.“ Auch in anderen europäischen Ländern wie Frankreich, Österreich und Polen habe inzwischen eine sehr dynamische Entwicklung eingesetzt.

Zwei Trends sind laut Miara mit dem Einsatz der Wärmepumpe in Bestandsgebäuden verbunden. Erstens: Um die höheren Vorlauftemperaturen zu realisieren, die im Bestand typischerweise erforderlich sind, gibt es immer mehr Hochtemperatur-Wärmepumpen am Markt. „Solche Anlagen sind in der Lage, Temperaturen von 65°C und höher bereitzustellen.“

Zweiter Trend sind Systemkombinationen, bei denen meist elektrische Wärmepumpen mit fossil betriebenen Kesseln wie etwa Pellet-, Öl-, Gas- oder Holzheizungen kombiniert werden. „Besonders beim Austausch alter Heizkessel in Bestandsgebäuden kann diese Technologie in den nächsten Jahren an Relevanz gewinnen“, so Marek Miara.

Auch er ist überzeugt, dass Wärmepumpen eine wichtige Rolle im intelligenten Stromnetz der Zukunft spielen werden. „Sie wandeln elektrische Energie effizient in thermische Energie um und puffern diese für eine bestimmte Zeit – entweder in Warmwasserspeichern oder auch in der Gebäudemasse.“

Zusätzlich wird die Kombination von Wärmepumpen mit Batteriesystemen an Bedeutung gewinnen. Letztere speichern Strom, der ja in Deutschland zunehmend aus erneuerbaren Quellen wie Offshore Windparks oder Photovoltaik-Anlagen kommt, um ihn bei Bedarf für den Betrieb der Wärmepumpe zur Verfügung zu stellen.

Auf diese Weise lassen sich Bedarf und Verbrauch zeitlich entkoppeln. „Damit können Wärmepumpenanlagen mit intelligenter Steuerung angesichts der fluktuierenden Stromerzeugung netzstabilisierend wirken.“

 

Wärmepumpe schlägt alle fossilen Heizsysteme

Herr Miara, welchen Stellenwert hat aus Ihrer Sicht die Wärmepumpe für die Transformation unseres Energiesystems?

Marek Miara: „Einen großen. Alle Studien sagen, dass die Wärmepumpe künftig einen riesigen Anteil haben wird. Die Elektrifizierung von Heizsystemen nimmt zu. Strom ist die höchste Form von Energie, er ist sehr vielseitig einsetzbar, und der Anteil an Erneuerbaren Energien steigt, in Deutschland liegt er schon jetzt bei über 25 Prozent. Für das Energiesystem liegt der Hauptvorteil darin, dass sich mit der Wärmepumpe ein guter Ausgleich zwischen Produktion und Bedarf realisieren lässt. Das ist angesichts der Zunahme der Erneuerbaren, die ja nicht so einfach steuerbar sind wie ein herkömmliches Kraftwerk, von großer Bedeutung.“

Welches sind die entscheidenden Faktoren, die aus Sicht des Energiesystems den Trend in Richtung Wärmepumpe speisen?

Marek Miara: „Erstens schlägt eine korrekt geplante und richtig installierte Wärmepumpe ökologisch alle fossilen Energieträger, wenn es um die Produktion von Wärme geht. Zweitens: Die politischen oder, wenn Sie so wollen, gesellschaftlichen Ziele der CO2-Reduktion sind nur mit der Wärmepumpe zu erreichen. Mit dieser Technologie kann man sowohl den CO2-Ausstoß verringern als auch den Bedarf an Primärenergie.“

Und welche Vorteile hat die Wärmepumpe für den einzelnen Nutzer gegenüber anderen Heizsystemen?

Marek Miara: „Für den einzelnen Nutzer gibt es eine ganze Reihe von Gründen, die für die Wärmepumpe sprechen. Sie arbeitet energieeffizient und bietet klare ökologische Vorteile. Sie hilft Primärenergie und in vielen Fällen Betriebskosten zu sparen. Wer sie mit einer Photovoltaik-Anlage koppelt, kann damit seinen Eigenverbrauch steigern. Nicht zu vergessen: Man braucht keinen Schornstein, keinen Tank oder sonstigen Platz für den Energieträger.“

Wie schätzen Sie das Marktpotenzial der Wärmepumpe für die nächsten Jahre ein – in Neubauten, in Bestandsgebäuden, im Geschosswohnungsbau?

Marek Miara: „Im Neubau ist das die Lösung der Zukunft. In bestimmten Regionen in Deutschland liegt der Anteil der Wärmepumpe in Neubauten schon über 50 Prozent, manche sprechen sogar schon von 70 bis 80 Prozent. Alle Experten sind sich einig, dass die Weichen richtig gestellt sind und alles für die Wärmepumpe spricht – die politischen Ziele, das EU-Energielabel, die EnEV. Den Vorgaben der EnEV gerecht zu werden, ist ohne Wärmepumpe sehr schwierig. Dass der PEF für Strom seit Januar 2016 auf 1,8 gesunken ist, bringt sicher zusätzliche Impulse.

Im Bestand wird die Entwicklung noch etwas länger dauern. Das liegt zum einen an Platzproblemen in Altbauten, vor allem aber an den höheren Vorlauftemperaturen, die hier benötigt werden. Dieses Thema wird sich in den nächsten Jahren lösen, weil es immer mehr eigens für Bestandsgebäude entwickelte Systeme gibt.

Beim Geschosswohnungsbau laufen derzeit einige Projekte, an denen auch Fraunhofer ISE beteiligt ist. Hier sehen wir ebenfalls großes Potenzial, aber es sind noch einige Probleme zu lösen wie die Vorlauftemperatur oder die Warmwasserbereitung für größere Wohneinheiten.“

 

Starkes Wachstum prognostiziert

Wie lässt sich die Transformation des deutschen Energiesystems kostenoptimal umsetzen? Dieser Frage widmen sich die Wissenschaftler am Fraunhofer-Institut für Solare Energiesysteme ISE unter anderem mit umfangreichen Modellierungen. Sie analysieren dabei unter anderem die Technologien, die für die Energiewende benötigt werden, und deren Verbreitung in den kommenden Jahrzehnten.

Für die Wärmeversorgung von Gebäuden kommt die wahrscheinlich größte Bedeutung demnach in den nächsten Jahrzehnten der elektrischen Wärmepumpe zu. Derzeit sind in Deutschland laut alpha-innotec rund 700.000 Geräte installiert, bis in zehn Jahren, so die Ergebnisse einer aktuellen Fraunhofer-Modellierung, könnte die Zahl der installierten Einheiten einschließlich thermisch angetriebener Systeme weit über zehn Millionen liegen, bis 2040 bei annähernd 20 Millionen.

 

Quellen-Nachweis:

Interview mit Prof. Dr. Hans-Martin Henning, Deputy Director, Director, Division Thermal Systems and Buildings, Fraunhofer-Institut für Solare Energiesysteme ISE

Interview mit Dr.-Ing. Marek Miara, Head of Group Heat Pumps, Division Thermal Systems and Buildings, Fraunhofer-Institut für Solare Energiesysteme ISE

Wärmepumpen
Heizen – Kühlen – Umweltenergie nutzen
BINE-Fachbuch
Marek Miara, u. a.
Hrsg.: FIZ Karlsruhe, BINE Informationsdienst, Bonn
2013, 166 S., 98 farb. Abb., Tab., Kartoniert
Fraunhofer IRB Verlag
ISBN 978-3-8167-9046-4