itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination...

20
EINE ZEITUNG PRODUZIERT VON MEDIAPLANETGROUP BUSINESS COMMUNICATIONS Wer gegenüber seiner Konkurrenz Vorsprung gewinnen will, sollte über moderne, zentralisierte Kommunika- tionslösungen nachdenken. Seite 6 EXTRA: DIGITALE CE HDTV und IP-TV heißt die Zukunft beim Fernsehen. Die Geräte für das hochauflösende TV gibt es bereits, Programme sind aber noch rar. Seite 17 ITK INFRASTRUKTUR November 2007 Ihr Unternehmen - FIT für die Zukunft mit Nortel Unified Communications Sparen Sie Geld - Beschleunigen Sie Prozesse - Steigern Sie Ihre Attraktivität als Arbeitgeber www.hyPerCoNNeCTIvITy.de BUSINeSS mAde SImPle INFORMATIONSSICHERHEIT IT-Verantwortliche wissen, dass die eigenen Mitarbeiter eines Unterneh- mens letztendlich das größte Risiko für den Informationsbestand sind. Seite 11 GREEN IT Computer und Rechenzentren ver- brauchen riesige Mengen an Energie. Darum setzt die Branche auf mehr Effizienz beim Stromverbrauch. Seite 15

Transcript of itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination...

Page 1: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

EinE ZEitung produZiErt von MEdiaplanEtgroup

Business CommuniCationsWer gegenüber seiner Konkurrenz vorsprung gewinnen will, sollte über moderne, zentralisierte Kommunika-tionslösungen nachdenken.

Seite 6

extra: digitale CeHdtv und ip-tv heißt die Zukunft beim Fernsehen. die geräte für das hochauflösende tv gibt es bereits, programme sind aber noch rar.

Seite 17

itK infrastruKturnovember 2007

Ihr Unternehmen -

FIT für die Zukunft mit Nortel Unified Communications

Sparen Sie Geld - Beschleunigen Sie Prozesse -

Steigern Sie Ihre Attraktivität als Arbeitgeber

www.hyPerCoNNeCTIvITy.de BUSINeSS mAde SImPle

informationssiCherheitit-verantwortliche wissen, dass die eigenen Mitarbeiter eines unterneh-mens letztendlich das größte risiko für den informationsbestand sind.

Seite 11

green itComputer und rechenzentren ver-brauchen riesige Mengen an Energie. darum setzt die Branche auf mehr Effizienz beim Stromverbrauch.

Seite 15

Page 2: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur�

Green IT lohnt sich. Ganz gleich ob in Unternehmen, Behör-den oder Privathaushalten: Informationstechnologie-Geräte bieten erhebliche Einsparpotenziale bei den Energiekosten. Für viele Re-chenzentren wird der Energieverbrauch in den nächsten fünf Jah-ren zu einem der größten Kostenfaktoren. Und das, obwohl sich die Energieeffizienz von Recheneinheiten in den vergangenen Jah-ren bereits nachdrücklich verbessert hat und dieser Trend weiter anhalten wird. Wichtig ist, es nicht bei Einsparungen im Energie-verbrauch der Hardware bewenden zu lassen. Wer Energieeffizienz ganzheitlich betrachtet, tut dem Geldbeutel und der Umwelt et-was Gutes. Die Kosten für die Modernisierung von Informations-technik unter Beachtung „grüner“ Konzepte amortisieren sich in kurzer Zeit.

Energieverbrauch. Zunächst müssen sich IT-Entscheider Klar-heit darüber verschaffen, wie hoch der Energieverbrauch einzelner Bereiche überhaupt ist. Nur die wenigsten Verantwortlichen wis-sen das. Inzwischen sind am Markt Lösungen verfügbar, die Licht ins Dunkel bringen. Mit ihnen lässt sich der aktuelle Energiever-brauch bis hin zum einzelnen Netzrechner zu jedem Zeitpunkt ex-akt und ohne großen Aufwand messen.

Geräteaustausch. Sind die Schwachstellen ausgemacht, ist der Austausch überalterter Geräte durch moderne, energieeffiziente Hardware ein möglicher Schritt in Richtung Energieoptimierung. Auch die jeweiligen Arbeitsplätze bieten zum Teil erhebliche Ein-sparpotenziale – zu Hause ebenso wie im Büro. So verbrauchen Notebooks deutlich weniger Energie als Tischrechner, Flachbild-schirme sind sparsamer als Röhrengeräte. Durch eine Anpassung der individuellen Energieeinstellungen am PC kann jeder mit ein paar Klicks seinen persönlichen Beitrag zur Ressourcenschonung bringen.

Thin Clients als neue Endgeräte. Enorme Einsparpotentiale bie-ten Thin Clients. Diese schlanken Endgeräte benötigen nur halb so viel Energie wie voll ausgestattete PCs. Die einzelnen Arbeitsplätze – die Clients – haben innerhalb eines Netzwerks im Wesentlichen die Funktion der Ein- und Ausgabe von Daten, die Rechenprozesse laufen zentral und effizient auf den Servern.

Verbesserte Systemauslastung. Sehr wirksam ist eine Verbes-serung der Auslastung der Rechenzentren. Durch Vereinheitli-chung, Vereinfachung und Virtualisierung kann die Computing Power des Unternehmens wesentlich effizienter und damit Strom sparender genutzt werden. So ist es zum Beispiel möglich, einen realen Server in mehrere virtuelle Server aufzuteilen, auf denen je-

weils gesonderte Betriebssysteme und Anwendungen laufen und die Geräteauslastung verbessern. Das spart Energie- und Anschaf-fungskosten. Noch sparsamer ist das Outsourcing von IT-Akti-vitäten. Hier teilen sich dann faktisch mehrere Unternehmen die Kapazitäten eines externen Dienstleisters.

IT-Betrieb, Kühlung und Raumanordnung. Auch die Gebäu-dearchitektur und räumliche Anordnung der IT-Systeme spielen eine Rolle. Denn die Räume werden durch die Abwärme der Rech-ner erhitzt und müssen durch Klimaanlagen aufwändig gekühlt werden. Eine intelligente, speziell auf den Rechenzentrumsbetrieb ausgelegte Raumanordnung und Klimatechnik bringt enorme Einsparungspotenziale. Sie braucht allerdings gründliche Planung durch spezialisierte Experten.

Der Nutzen von Green IT. Green IT lohnt sich betriebswirt-schaftlich – in meist erstaunlich kurzer Amortisationszeit. Bei richtigem Ansatz werden die Kosten für die Einrichtung eines modernen grünen IT-Betriebs innerhalb von zwei Jahren wieder eingespielt – allein durch Energieeinsparungen. Die IT-Verant-wortlichen spüren davon allerdings meist nichts. Aber dies ist ein Kostenrechnungsproblem: Der Energieverbrauch von Unter-nehmen läuft unter „Facility Management“. Wer Green IT zum Durchbruch verhelfen will, wer Ausgaben reduzieren, Energie sparen und gleichzeitig die Umwelt schonen will – der sollte die Verantwortung für den Energieverbrauch der IT-Systeme dorthin legen, wo die Entscheidungen getroffen werden: in das IT-Manage-ment.

ITK InfrasTruKTur – ProduzIerT von MedIaPlaneTgrouP Projektleiter: laurens Müller, Mediaplanet, +49 (0)30 887 11 29 34, Christopher venus, Mediaplanet, +49 (0)30 887 11 29 35Produktion/Layout/Prepress: Christina liefke, Mediaplanet, +49 (0)30 887 11 29 30Text: Michael gneuss, Christian Buck, lena Bulcak, Heike dettmarKorrektorat: frankfurter societätsdruckFotos: istockphoto.comDruck: frankfurter societätsdruckMediaplanet ist die führende europäische Medienfirma, spezialisiert in Produktion, finanzierung und distribution von Themenzeitungen in der Tagespresse und in Wirtschaftsblättern. für weitere Informationen rufen sie fredric Holmgren an, +49 (0)30 887 11 29 39.

MIT der reICHWeITe eIner TageszeITung und deM foKus eIner faCHzeITsCHrIfTwww.mediaplanet.com

InHalT datenschutz ist überlebenswichtig 4

Höhere sicherheit, weniger versicherungsprämie 4

schlecht eingestellter Business-Motor 5 IP-Kommunikation als

Wettbewerbsvorteil nutzen 6 soa kommt 7 Klein, leise und effizient 7 expertenpanel 8 datensicherheit will gelernt sein 11 flexibilität und effizienz

aus der datenleitung 12 vernetzte Techniker sind effizienter 13 großes einsparpotenzial

bei rechenzentren 14 vorsorge ist lebenswichtig 14 Megathema umweltschutz 15 die vierte generation 16 Pixel für die Wand 17 gestochen scharf 18

TeIlneHMer

arcor 18 atos origin gmbH 5 avira gmbH 10 Bit gmbH 8 Cisco systems gmbH 8 dolphin Telecom 19 fIduCIa IT ag 11 fujitsu siemens Computers 9 Hama 17 HTC gmbH 20 Humax 16 & 19 IBM deutschland gmbH 14 Igel Technology gmbH 7 Info ag 12 Itella Information gmbH 9 it.sec gmbH & Co. Kg 10 KerP gmbH 15 lampertz gmbH 4 & 8 nortel deutschland gmbH 1 & 6 omikron data Quality gmbH 7 Pironet ndH ag 13 & 16 retarus gmbH 10 Teragate ag 9 Tds Informationstechnologie ag 3 & 13 unity Media 19

Grüne IT-Konzepte sparen Energie, Geld & CO2Martin Jetter – Präsidiumsmitglied des Bundesverbands Informationswirtschaft, Telekommunikation und neue Medien (BITKoM), vorsitzender der geschäftsführung, IBM deutschland gmbH

Mit freundlicher Unterstützung von:

Martin Jetter

Page 3: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur �

Das Fernsehen über das Inter-netprotokoll steht vor dem bal-digen Durchbruch. Voraussichtlich 100.000 deutsche Haushalte werden Ende dieses Jahres einen IPTV-An-schluss haben. Ende 2012 könnten es sogar 2,5 Millionen sein. Damit etabliert sich ein weiterer TV-Über-tragungsweg neben Kabel, Satellit und Antenne. Das ist nicht nur ein Bauchgefühl, sondern Ergebnis ei-ner neuen Studie von BITKOM und Goldmedia.

Angeboten wird IPTV fast im-mer als Triple-Play, also zusammen mit Telefon- und Internetanschluss. Im Unterschied zum traditionellen TV-Empfang gibt es dabei nahezu

keine Kapazitätsengpässe. Theore-tisch lässt sich eine unbegrenzte An-zahl von Programmen übertragen – selbst Nischeninteressen werden bedient. Kunden können zudem interaktive Zusatzdienste nutzen. Damit verändert sich das Fernseh-erlebnis, wie wir es heute kennen, grundlegend.

Ausgewählt werden diese inter-aktiven Zusatzdienste in der Regel über die Fernbedienung, meist über

den sogenannten Red Button. Be-reits ausgestrahlte Sendungen lassen sich so beispielsweise nachträglich anschauen – ohne Vorab-Program-mierung des Rekorders. Sender kön-nen bei Sport-Übertragungen per IPTV außerdem die Auswahl meh-rerer Kameraeinstellungen anbieten. Jeder wählt seine Lieblings-Ansicht. Und bei Quizsendungen beteiligt sich der Zuschauer per Fernbedie-nung direkt an allen Fragen – mit der Chance auf Gewinne. Aktives Fernsehen statt passives Fernsehen.

Im Vergleich zu anderen EU-Län-dern liegt Deutschland beim Fern-sehen per Internetprotokoll derzeit allerdings zurück. So gibt es etwa in Frankreich schon jetzt zwei Mil-lionen IPTV-Kunden. Auch Italien und Spanien sind weiter. Ganz klar: Wir müssen IPTV hier zu Lande bekannter machen. Aber auch die Politik ist gefordert. Sie darf den jungen Markt nicht mit Überregu-lierung ersticken. Unter anderem sollte das Regelwerk des klassischen Rundfunks nicht pauschal auf die Internetdienste übertragen werden. Damit würde die hoch innovative Branche ausgebremst.

Gut sind die Vorzeichen für IPTV beim Thema Infrastruktur. Die Zahl der schnellen Internetzu-gänge hat sich in den vergangenen

vier Jahren vervierfacht. DSL ist eine wichtige Grundlage für die Nutzung von IPTV. Derzeit verfü-gen rund 40 Prozent der Haushalte über einen Breitbandanschluss – in absoluten Zahlen also etwa 16 Mil-lionen Haushalte. Ende 2003 lag die Quote noch bei 12 Prozent. Die 50-Prozent-Marke wird in Deutschland nach BITKOM-Schätzungen bereits im kommenden Jahr überschritten.

Allerdings, und das ist wich-tig: IPTV ist technisch nicht auf die Telekommunikationsnetze be-

schränkt. So können auch in den TV-Kabelnetzen oder über Satellit die technischen Möglichkeiten der aus dem Internet bekannten Dienste zur Fernsehbild-Übertragung ge-nutzt werden. Einige Kabelnetzbe-treiber arbeiten bereits daran, eigene IP-Dienste zu starten.

Solche Dienste sind für die An-bieter sehr interessant. Sie erzielen Einnahmen aus den Anschluss-gebühren, dem Verkauf von Pre-miumpaketen, aus interaktiven Zusatzdiensten, Werbung oder der Vermarktung elektronischer Programmführer. Hinzu kommen

indirekte Vorteile. Wer IPTV an-bietet, kann damit Kunden binden oder auch Kunden gewinnen. Für mich steht außer Frage, dass IPTV auch wirtschaftlich ein Erfolg wird. Die mit IPTV erzielbaren direkten Erlöse steigen laut unserer Studie in Deutschland bis 2012 auf jährlich 420 Millionen Euro.

Vor wenigen Tagen ist bereits der

dritte Anbieter in den Markt einge-stiegen. IPTV kann man jetzt bei der Deutschen Telekom, bei Arcor und bei Hansenet abonnieren. Und weitere Starts sind schon angekün-digt. Die nächsten Monate werden spannend.

prof. dr. august-Wilhelm Scheer ist präsident des BitKoM

gastbeitrag: BitKoM

Vor dem durchbruch

Die Automobilindustrie hat es vorgemacht. Dort führte eine drastische Reduzierung der Fer-tigungstiefe zu einem hohen Rei-fegrad der Industrialisierung. Bei anderen Industriezweigen ist dies noch nicht so. Insbesondere die ver-gleichsweise junge Branche der In-formationstechnologie steht bei der Industrialisierung noch ganz am Anfang.

Kurze Innovationszyklen, die wachsende Anforderung an die IT, Geschäftsprozesse zu unterstützen, sowie knappe oder schrumpfende Budgets: Dies sind die aktuellen Herausforderungen der IT-Abtei-lungen. Die IT-Industrie braucht deshalb neue Ansätze, um diese Herausforderungen zu meistern. Sie müssen eigene Prozesse auf den Prüfstand stellen und schlanker ge-stalten. Kurz: Es gilt das, was Toyota einst mit dem Prinzip der „Lean Pro-duction“ für die Automobilindustrie entwickelt hat, auf die IT-Branche zu übertragen. Denn schlanke Pro-zesse sind ein wesentliches Merkmal einer Branche mit hohem Industri-alisierungsgrad. Konkret bedeutet dies eine Standardisierung, Automa-tisierung und kontinuierliche Ver-besserung von IT-Leistungen und

-Funktionen. Dadurch ergeben sich für IT-Kunden deutliche Vorteile: Die Qualität der Dienstleistungen wird erhöht, Kosten, die nicht zur Wertschöpfung im Unternehmen beitragen, werden reduziert, und es bleibt mehr Spielraum für hochwer-tige Services. Auf individuelle Lö-sungen müssen Kunden dabei dank neuartiger Ansätze nicht verzichten.

Warum jedes mal das rad neu erfinden?

Starten Unternehmen heute ein IT-Projekt, greifen sie dazu in der Regel auf einzelne Komponenten zurück – sowohl bei der Hard-ware-Infrastruktur als auch bei den Dienstleistungen. Diese müssen sie zu einem funktionierenden Ganzen zusammenfügen. Eine zeitaufwän-dige Aufgabe, denn sie müssen dafür sorgen, dass die gesamte IT – neue Bestandteile sowie bereits bestehende Lösungen – reibungslos zusammenspielt. In den seltensten Fällen greifen sie dabei auf Erfah-rungen zurück, die andere Unter-nehmen bereits in vergleichbaren Projekten gesammelt haben. Dabei wäre dies sehr sinnvoll. Denn vor allem, wenn IT-Systeme Standard-Prozesse unterstützen, existieren in

den meisten Unternehmen ähnliche Anforderungen. Beispiele hierfür finden sich im Vertrieb, in der Auf-tragsbearbeitung, im Personalwesen oder in der Finanzplanung. Erfah-rungen zeigen, dass 80 Prozent aller Anforderungen an IT-Infrastruktu-ren und -Services in jedem Unter-nehmen gleich sind – und das unab-hängig von der Branche.

Diese Tatsache machen sich neuartige Konzepte zunutze, zum Beispiel die Branchenlösungen der TDS oder die von Fujitsu Services, dem Mutterkonzern der TDS AG, entwickelte Methodik „Triole“. Zu-grunde liegt das Prinzip, dass zu gängigen IT-Anforderungen ent-sprechende Lösungsbausteine ent-wickelt werden. So entsteht eine umfassende Sammlung in der Pra-xis bewährter Module, die kontinu-ierlich optimiert wird. Wesentliche Merkmale dieser Bausteine: Sie sind standardisiert und wiederverwend-bar. Die vorgefertigten, integrierten und getesteten Lösungsbausteine, in der Fachsprache auch „Templates“ genannt, lassen sich sowohl als ein-zelne Lösung als auch in beliebiger Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich vor

dem Einsatz im jeweiligen Unter-nehmen strenge Tests und Quali-tätskontrollen.

modulare lösungsbausteine sorgen für schlanke Prozesse

Aus diesen Lösungsbausteinen kann der IT-Dienstleister seinem Kunden je nach spezifischem Be-darf ein passgenaues Gesamtsys-tem zusammenstellen, das auf die individuellen Herausforderungen abgestimmt ist. Unternehmen profi-tieren dadurch nicht nur von kurzen Implementierungszeiten, sondern auch von einer konsistenten Quali-tät ihrer IT-Systeme. Dies wiederum ermöglicht es ihnen, für die Fachab-teilungen IT-Services in der verein-barten Qualität bereitzustellen. Im Vergleich zur traditionellen Vorge-

hensweise schlagen dabei die Kosten für IT-Projekte weniger zu Buche. Denn dank der Module entfallen der Integrationsaufwand und das mit dem Einführen eines neuen Systems verbundene Risiko weitgehend.

Ähnlich wie Produktionsprozesse in der Automobilindustrie sorgen also vorgefertigte, integrierte und getestete IT-Bausteine für schlan-kere Abläufe in der IT. Damit macht die Branche einen großen Schritt hin zu einer industrialisierten IT.

Winfried Holz ist vorstandsvorsitzender der tdS ag

und geschäftsführer von Fujitsu Services deutschland

gastbeitrag: tdS

die it wird erwachsen

ende 2007 ca. 100.000iPtV-anschlüsse

in deutschland

40 % der haushalteBreitband

anschluss

Page 4: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur�

Von ChrIsTIan BuCK

Eine sichere IT-Infrastruktur ist die Basis für den reibungslosen Ablauf des Geschäftsbetriebs, und schon der kurzzeitige Ausfall der Computer- und Kommunikations-systeme kann den Ruin eines Unter-nehmens bedeuten. Kein Wunder also, dass die Sicherheit und Ver-fügbarkeit der Unternehmens-IT längst kein exotisches Thema mehr für Computer-Administratoren ist, sondern vom Management verstärkt als strategische Aufgabe betrachtet wird.

Vor allem Banken, Kreditkarten-unternehmen, Touristik-Anbieter, Energieversorger und Telekommu-nikationsunternehmen brauchen höchste Datensicherheit und -ver-fügbarkeit. Durch die Auflagen im Rahmen des Sarbanes-Oxley Act und des Gesetzes zur Kontrolle und Transparenz im Unternehmensbe-reich (KonTraG) sind die Anforde-rungen an die IT-Sicherheit aber auch in vielen anderen Branchen stark gestiegen. Selbst die Bankbe-wertung im Rahmen von Basel II kann sich verbessern, wenn ein Un-

ternehmen nachweislich optimal für seine Datensicherheit vorsorgt.

Wer seine IT intern betreibt, muss sie also gegen die elementaren Risiken absichern: zum Beispiel ge-gen Feuer, Stromausfall oder Sabo-tage aus den eigenen Reihen. Fast schon Standard ist heute eine un-terbrechungsfreie Stromversorgung (USV), die beim Ausfall des öffent-lichen Netzes sofort einspringt, so dass die IT reibungslos weiterläuft. Die ersten Minuten werden aus einem Akku überbrückt, danach kann ein Dieselgenerator die Ver-sorgung für mehrere Stunden oder gar Tage übernehmen. Viele Versi-cherungsgesellschaften versichern Produktionsausfälle bei Stromun-terbrechungen mittlerweile sogar nur noch, wenn das Unternehmen über eine solche USV verfügt.

Optimalen Schutz für die Unter-nehmens-IT bietet der Einbau der Geräte in abgeschottete und mit Überwachungstechnik ausgestat-tete Sicherheitsräume, die von spe-zialisierten Herstellern angeboten werden. Dort sind beispielsweise Brandmelder installiert, die schon die kleinsten Anzeichen von Feuer

bemerken. EDV-verträgliche Lösch-anlagen bekämpfen Brände, ohne die Geräte zu zerstören. Und Zutritts-kontrollen erschweren Anschläge aus dem Unternehmen selbst, etwa von frustrierten Mitarbeitern. Oft kann man die Anlagen modular erweitern und in bestehende Räum-lichkeiten integrieren.

Weil der Betrieb eines Rechen-zentrums nur in den seltensten Fällen zur Kernkompetenz eines Unternehmens gehört, ist er ein klassischer Fall für Outsourcing. Zahlreiche Dienstleister bieten

darum hochverfügbare und gesi-cherte Rechenzentren an, in denen die Daten und Applikationen von Unternehmen professionell betreut werden.

Basis der Zusammenarbeit mit einem externen Dienstleister sind stets Service Level Agreements (SLA), in denen festgehalten wird, welche Leistungen der Kunde zu welchem Preis erwarten kann. Ne-ben einer hohen Verfügbarkeit und

Performance von Server, Speicher und Netzwerk kann der Kunde von einem guten Dienstleister noch mehr verlangen: Ein kompetenter Partner hat auch Verständnis für seine Ge-schäftsprozesse und stellt ihm eine eindeutig zugeordnete Schnittstelle für alle Fragen zur Verfügung – da-mit im Ernstfall auch die Kommu-nikation effektiv funktioniert.

Für den Schutz ihrer IT-Infra-struktur treffen die Betreiber dieser externen Rechenzentren aufwändige Vorkehrungen. Je nachdem, wie kri-tisch die jeweiligen IT-Prozesse für ihre Kunden sind, stellen sie sogar verschiedene Räumlichkeiten dafür zur Verfügung – bis hin zu zwei getrennten Rechenzentren plus ein Ausfallrechenzentrum für den Kri-senfall. Zu den Schutzmaßnahmen gehören auch hier selbstverständ-lich die unterbrechungsfreie Strom-versorgung, Brandmeldesysteme, strenge Zutrittskontrollen und eine flächendeckende Video-Überwa-chung der Anlagen.

Insbesondere Unternehmen mit höchsten Anforderungen an die Ver-fügbarkeit ihrer IT-Systeme (zum Beispiel Anbieter von Kreditkarten

oder Online-Reisebüros) setzen in ihrem Notfallkonzept auf Ausweich-Rechenzentren. Der Grundgedanke dahinter: Im Krisenfall übernimmt ein anderes Rechenzentrum den ge-samten Betrieb oder gewährleistet zumindest die allernotwendigsten Dienstleistungen. Der Standort der alternativen Hardware kann in einer anderen Stadt oder gar auf einem anderen Kontinent sein – das erhöht

den Schutz bei Naturkatastrophen wie etwa Erdbeben.

Einige Anbieter betreiben ihre hochverfügbaren IT-Systeme in stillgelegten Atombunkern aus der Zeit des Kalten Krieges. So gibt es zum Beispiel ein Ausweichrechen-zentrum im ehemaligen Atombun-ker der baden-württembergischen Landesregierung in Oberreichen-bach im Nordschwarzwald. Die Räume liegen bis zu 25 Meter un-ter der Erde, und die Anlage ver-fügt über eine unterbrechungsfreie Strom- und Klimaversorgung sowie eine eigene Wasserversorgung.

Hochverfügbare rechenzentren

datenschutz ist überlebenswichtigDie Unternehmens-IT ist von zahlreichen Risiken bedroht. Wer sich nicht gegen Feuer, Stromausfall oder Sabotage absichert, riskiert seinen Ruin

Die Wieland Electric GmbH im bayerischen Bamberg – ein weltweit führender Hersteller elektrischer Verbindungstechnik – stand vor einer großen Herausforderung: Im Laufe der letzten Jahre wurden die umfangreichen IT-Systeme des Un-ternehmens immer bedeutsamer für die Entwicklung und die Vertriebs-aktivitäten. Um auch den gestiege-nen Anforderungen an die Sicherheit der EDV gerecht zu werden, plante Wieland Electric, die bislang ver-teilten Systeme und IT-Dienstleis-tungen komplett zu zentralisieren und gleichzeitig zu standardisieren – vor allem auch vor dem Hinter-grund der weltweiten Einführung von SAP R/3 als ERP-System und neuer rechtlicher Rahmenbedin-gungen wie beispielsweise Basel II.

Da die bestehenden Räumlich-keiten dafür nicht genügend Platz boten, machten sich die IT-Verant-wortlichen von Wieland zunächst grundsätzliche Gedanken darüber,

wie und wo das Unternehmen seine Datenverarbeitung in Zukunft be-herbergen sollte. Von einer Out-sourcing-Lösung versprach man sich dabei keine Vorteile – im Ge-genteil: Wieland wollte die IT als Kernkompetenz intern aufgehoben und betrieben wissen. Vor allem die

Themen Sicherheit, Verfügbarkeit und Überwachung der IT standen für das Unternehmen ganz oben auf der Agenda. Um alle möglichen Risiken aufzuspüren, ließ Wieland Electric von den Experten der Litcos GmbH zunächst eine detaillierte Sicherheitsanalyse erstellen. Ge-meinsam erarbeitete man daraufhin einen Stufenplan, um bis zum Jahr 2007 ein neues Rechenzentrum mit sämtlichen Sicherheitsmaßnahmen und der Anbindung aller Niederlas-sungen realisieren zu können.

Im bisherigen Rechenzentrum fanden die Experten bei ihrer Ana-lyse neben den aufgestellten Servern auch Speichergeräte mit insgesamt erheblichen Wärmelasten ohne die notwendige Klimatisierungsleis-tung. Zudem waren die Räumlich-keiten mit Leichtbauwänden, Glas-wänden und schlecht gesicherten Türen technisch nicht mehr auf dem aktuellen Stand. Die niedrige Bauhöhe und der zu niedrige Dop-pelboden gestatteten keinen Ausbau an gleicher Stelle, aus Sicherheits-gründen war ein neuer Standort für die Unternehmens-IT somit das Ge-bot der Stunde. Für eine Übergangs-zeit musste Wieland aber noch mit der alten Anlage arbeiten – ein ho-hes Risiko, das nicht zu umgehen war, bis ein neues hochverfügbares Rechenzentrum fertig gestellt sein würde. Auch ein Stromausfall des Energieversorgers führte zu einem Umdenken in Richtung redundante Auslegung der Stromführung, in-

klusive des Einsatzes einer eigenen Netzersatzanlage.

In den insgesamt vier Jahren der Analyse, Planung und Umsetzung waren zeitweise bis zu 50 Personen international und genauso viele in der Zentrale in Bamberg mit der Konzipierung, Zentralisierung, Standardisierung und Prozessanpas-sung beschäftigt. Ein zentraler Fak-tor war dabei die Ausbaufähigkeit der Anlage, je nach Platzanspruch der Server-Racks. Als Lösung wählte Wieland Electric einen flexibel und modular erweiterbaren Sicherheits-raum der Lampertz GmbH. Er bietet eine umfassende Überwa-chung der Systeme – zum Beispiel hochempfindliche Brandmelder sowie eine zuverlässige Zugangs-kontrolle – und garantiert somit den maximalen Schutz der über-lebenswichtigen Unternehmens-IT von Wieland Electric. Schäden durch Brände (innerhalb und außer-halb des Rechenzentrums) werden

ebenso vermieden wie eine Unter-brechung des Betriebes durch den Ausfall der Stromversorgung. Und wenn die Anforderungen an die IT in Zukunft steigen, kann das Re-chenzentrum ohne Probleme durch neue Module erweitert werden. „Wir haben uns bei diesem Raum für das höchste zurzeit verfügbare Sicher-heitsniveau entschieden und damit eine langfristige Lösung angestrebt, um nicht bald wieder an Grenzen zu stoßen“, erläutert IT-Leiter Andreas M. Wieland die Entscheidung.

Das neue Rechenzentrum wird das primäre Datencenter für die IT sein. Weitere, sekundäre Rechen-zentren sind in Planung. Durch die neue zentrale IT-Versorgung des Unternehmens und durch das professionelle Sicherheitssystem er-füllt Wieland Electric nicht nur die rechtlichen Rahmenbedingungen, sondern konnte auch die Versiche-rungsprämie reduzieren.

Daneben ist die Einhaltung ge-setzlicher Vorschriften wie Kon-TraG sowie die bankspezifische Bewertung nach Basel II und das damit verringerte Haftungsrisiko für die Wieland-Geschäftsführung ein wichtiger Pluspunkt. Die hoch-verfügbare IT in der Unternehmens-gruppe, zu der neben Wieland Elec-tric auch die Firma Stocko Contact gehört, steigert das Vertrauen der Kunden und die Bewertung durch unabhängige Wirtschaftsprüfer bei den jährlich wiederkehrenden Au-dits.

Case Study lampertz

höhere sicherheit, weniger VersicherungsprämieInvestitionen in geschützte IT-Systeme rechnen sich – sie erhöhen nicht nur den Schutz der lebenswich-tigen Technik, sondern verbessern auch das Rating bei Banken und Versicherungen

rechenzentrumklassischer fall von

outsourcing

it als interneKernkompetenz

rechenzentrumim Bunker

Page 5: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur �

Von Lena BuLCzaK

Ihre IT versteht Sie nicht? Kein Problem, meint die Branche. Denn in Zukunft soll die IT Infrastruc-ture Library (ITIL), ein inzwischen weltweit anerkanntes Best-Practice-Regelwerk, die Kommunikation zwischen IT und Geschäftsprozes-sen beleben. Ein besseres IT-Service-Management (ITSM) ist dringend vonnöten, denn mit den neuen und vernetzten Anwendungen steigt auch die Komplexität der Systeme und der Handlungsdruck in den Unternehmen – unabhängig davon, ob sie ihre IT selbst betreiben oder ausgelagert haben. Noch investieren jedoch viele Unternehmen in teure IT-Anwendungen, ohne vorab de-ren Nutzen kritisch zu hinterfragen. Dann kann der erhoffte Geschäfts-erfolg auch schon mal ausbleiben, was der IT das Image als Kostentrei-ber beschert hat.

„Das IT-Service-Management hilft, die Prozesse transparent zu ge-stalten“, meint Hans-Peter Fröschle, Geschäftsführer IT Service Manage-ment Forum (itSMF) Deutschland. Denn das IT-Service-Management bestimmt in so genannten Service Level Agreements (SLAs), welche Leistungen von der IT mit welcher Verfügbarkeit erbracht werden sollen, und es misst, welche Aus-wirkungen Systemstörungen auf die Geschäftsprozesse haben – und zwar ausgedrückt in harten Zahlen wie Umsatzverlust oder erhöhtem

Personalbedarf. So schafft es die notwendige Basis für eine Überprü-fung des Beitrags der IT zum Ge-schäftserfolg.

Auf dem Markt für ITSM kristal-lisiert sich die IT Infrastructure Lib-rary (ITIL) inzwischen immer mehr als De-facto-Standard heraus. Ent-wickelt wurde sie bereits vor nahezu 20 Jahren, als die britische Regie-rung nach Lösungen suchte, um die Effizienz der IT in ihren Behörden zu steigern. Damals erhielt die Cen-tral Computer and Telecommunica-tions Agency (CCTA) die Aufgabe, die behördlichen IT-Dienstleistun-gen zu vereinheitlichen und zu do-kumentieren. Das Resultat war ein umfangreiches und detailliertes Re-gelwerk, das auch den Ansprüchen der Privatwirtschaft genügt und sich auf Unternehmen jeder Grö-ßenordnung anwenden lässt.

Prozessmodelle wie in ITIL do-kumentiert sollen Vorbilder liefern, mit deren Hilfe sich die immer viel-schichtigeren unternehmerischen IT-Landschaften und deren not-wendige Anpassungen beherrschen lassen. Denn eines ist sicher: Wan-del und technische Veränderungen lassen sich im Geschäftsleben nicht vermeiden. Quasi-Standards wie ITIL gewährleisten die Integrierbar-keit der Prozesse, indem sie sicher-stellen, dass Schnittstellen, Verant-wortlichkeiten und Änderungen klar dokumentiert und nachvoll-ziehbar sind. Die Orientierung an Best-Practice-Ansätzen hat dabei

nicht nur den Vorteil, dass diese sich – wie der Name schon sagt – in der Praxis bewährt haben, sondern dass sie bereits unter Kostengesichts-punkten optimiert wurden. „Die Unternehmen gehen dabei von Kos-teneinsparungen zwischen zehn und 20 Prozent aus“, so ITIL-Experte Hans-Peter Fröschle.

Die neue Serviceorientierung der IT kommt aber nur zögerlich in Schwung. Derzeit liegt in der Kommunikation zwischen IT und Business noch einiges im Argen. So fühlt sich etwa die Hälfte der Fach-bereichsleiter in deutschen Groß-unternehmen von ihrer IT nicht wirklich verstanden. Selbst wenn IT-Lösungen für einzelne Geschäfts-bereiche konzipiert werden sollen, spielt die zuständige Fachabteilung in etwa 40 Prozent der Fälle keine Rolle, wie eine Studie des Markt-forschungsunternehmens Berlecon vom Juli diesen Jahres herausfand.

Und auch ob und inwieweit die vertraglich festgehaltenen Verein-barungen tatsächlich eingehalten wurden, diskutieren Business- und IT-Verantwortliche demnach in nur etwa einem Viertel der Unterneh-men. Ein weiteres Viertel verzichtet völlig darauf, und nur in dreizehn Prozent der Unternehmen werden regelmäßig Service Level Agree-ments vereinbart. Offensichtlich wissen umgekehrt auch viele Be-reichsleiter nicht besonders viel über Sinn und Zweck dieser Vereinba-rungen. Das Fazit der Experten: Die

IT erfüllt ihre Funktion als Busi-ness-Motor derzeit nur bedingt, was zu großen Teilen an der mangelnden Kommunikation liegt.

Aber auf dem Markt zeichnet sich bereits eine Trendwende ab: Eine Studie des Marktforschungs-unternehmens Gartner stellte schon im Jahr 2005 fest, dass viele IT-Organisationen inzwischen ihr Augenmerk weg von traditionellen Sparprogrammen, hin zu Prozess-verbesserungen lenkten. Auch die aktuelle Diskussion um service-orientierte Architekturen (SOAs) führt zu einer weiterhin steigenden Akzeptanz des ITSM. Inzwischen müssen auch kleinere IT-Organisa-tionen verstärkt service- und kos-tenorientiert arbeiten und fordern deshalb standardisierte Prozesse für

ihre IT-Abteilungen. ITSM-Spezia-listen beobachten bereits eine stei-gende Nachfrage: Das itSMF kons-tatiert wachsende Mitgliederzahlen, und der Schulungsanbieter exagon consulting meldet einen stetig stei-genden ITIL-Schulungsbedarf.

Nachdem sich Standardsoft-ware bereits in den Unternehmen etabliert hat, wäre es ein logischer Folgeschritt, nun auch die bisher sehr individuellen Service-Prozesse zu standardisieren. Das bedeutet gleichzeitig den Beginn einer Art Industrialisierung der IT. In Zu-kunft könnten Anwender dann kleinteilige IT-Prozesse wie Pro-dukte einkaufen und in ihre Pro-zesse integrieren. Zu hoffen ist, dass sie dann auch mit ebenso standardi-sierten Preisen rechnen können.

Service-Management

schlecht eingestellter Business-motorEin verbessertes Service-Management nach ITIL-Best-Practice-Standards soll die IT stärker an den Geschäftsprozessen ausrichten. Dennoch investieren viele Unternehmen weiterhin in teure Anwendungen, ohne Klarheit über ihren konkreten Nutzen

Welche Vorteile haben unternehmen von einem professionellen it-service-management? Die Rolle der IT im Unterneh-

men hat sich in den vergangenen Jahren stark gewandelt; sie muss sich heute an den Geschäftsprozes-sen im Unternehmen orientieren, nicht umgekehrt. Zugleich sind die Anforderungen, die heute an die IT im Unternehmen gestellt werden, extrem vielschichtig geworden: Ein-mal steigt der Kostendruck, aber gleichzeitig müssen Sicherheit und Verfügbarkeit verbessert werden. Oder der Gesetzgeber wartet mit neuen regulatorischen Anforde-rungen auf. Sie sehen: Für diese Her-ausforderungen ist ein gutes IT-Ser-

vice-Management erforderlich, wie die Einführung klarer Prozesse und einheitlicher Standards wie ITIL.

Welche gründe sprechen für die auslagerung der it, und was bedeutet das für das it-service-management?Einige Kunden tun sich anfäng-

lich schwer, wenn es darum geht, sensible Systeme von einem Dienst-leister managen zu lassen. Sie glau-ben, es sei sicherer, alles selbst zu machen. Dabei ist das Gegenteil der Fall: Wenn Sie einen Dienstleister haben, der Ihnen die Einhaltung gewünschter Standards und Sicher-heitslevel regelmäßig nachweist und garantieren kann, dann sollten sie sehr viel ruhiger schlafen können,

als wenn Sie lediglich das Ehrenwort Ihrer internen IT haben. Neben Si-cherheits- und Qualitätsaspekten und dem Wunsch nach Kostensen-kungen spielt die Erhöhung der Fle-xibilität eine wesentliche Rolle. Das können beispielsweise flexible Preis-modelle sein, bei denen der Kunde seine IT-Kosten dem tatsächlichen Bedarf anpassen kann.

Worauf sollte ein unterneh-men bei der Wahl des dienst-leisters achten? Ich denke, dass neben rationalen,

also technischen oder ökonomischen Entscheidungskriterien wie Qualität und Preis immer auch das Bauchge-fühl stimmen muss. Insbesondere im Outsourcing sollte das Ziel eine

langfristige Partnerschaft mit dem Dienstleister sein, eine Win-win-Situation für beide Partner. Dazu gehört vor allem Vertrauen. Schließ-lich verantwortet der Dienstleister die IT in zum Teil extrem kritischen Systemumgebungen! Nehmen Sie beispielsweise die Handelssysteme der Börsen in Paris und Amsterdam, die Steuerung der französischen Atomkraftwerke oder die IT der Olympischen Spiele – in solchen Umgebungen brauchen sie mehr als einen Lieferanten, sie brauchen einen Partner, dem sie vertrauen können.

Wolfgang Sturm, Chief operations officer von atos origin deutschland

Fokus-interview: atos origin

„das Ziel sollte eine langfristige Partnerschaft sein“

Page 6: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur�

Von Lena BuLCzaK

Der kontinuierliche Fluss aktu-eller und relevanter Geschäftsin-formationen ist ein zentraler Wett-bewerbsfaktor für Unternehmen und ihre Beschäftigten. Viele Un-ternehmen haben allerdings noch einen erheblichen Nachholbedarf

in puncto Integration und Effizienz ihrer Kommunikationswege. Trotz – und zum Teil sogar wegen – der rasanten Fortschritte im Bereich der Kommunikationstechnik gehören Verzögerungen in der Informations-übermittlung für viele Menschen zum Arbeitsalltag hinzu. Denn die Vielfalt neuer Kommunikations-

kanäle und Geräte verschafft ihnen zwar mehr Flexibilität, kann aber auch schnell zur Überlastung füh-ren.

Abhilfe schaffen soll hier eine neue Zauberformel: Unified Com-munications (UC). Eine unter-nehmensweite, vereinheitlichte Kommunikationsplattform ver-heißt ihren Anwendern nicht nur Kosteneinsparungen, sondern auch höchsten Nutzerkomfort. Denn mit UC kann der Nutzer stets selbst entscheiden, welcher Kommunika-tionsweg der effizienteste ist, ohne dabei die Anwendung wechseln zu müssen. Einzelne Geräte verschmel-zen zu Systemen, und es entsteht ein allumfassendes Netz der Dinge. Ob klassische Telefonate, moderne Vi-deokonferenzen, Instant-Messaging oder Dokumentenmanagement – entscheidend ist, dass jeder Mitar-beiter zu jeder Zeit von jedem Gerät und jedem Ort auf alle vorhandenen Kommunikationsmittel zurück-greifen kann – selbstverständlich unter einer einheitlichen Benutzero-berfläche.

Dieser stark prozessorientierte Einsatz von Kommunikationstech-nologien wird möglich aufgrund der zunehmenden Verbreitung von Voice-over-IP (VoIP): Das Internet Protokoll (IP) steuert ohnehin be-reits den größten Teil des Datenaus-tauschs, und nun kommt beim VoIP mit der Sprache eine weitere Anwen-dung hinzu, so dass die Grundlage für eine Konvergenz der IT- und TK-Infrastruktur geschaffen ist.

Mit Voice-over-W-Lan ver-schwimmen auch die Grenzen zwischen fester und mobiler Kom-munikation: Ist einmal ein telefo-niefähiges Drahtlosnetz auf dem Firmengelände eingerichtet, brau-chen die Mitarbeiter nur noch ein Telefon – und sind damit überall na-hezu kostenlos erreichbar. Wird das Netz sorgfältig geplant und umge-setzt, erreichen professionelle Nut-zer damit auch eine hervorragende Sprachqualität – ohne die nur zu gut bekannten lästigen Störgeräusche und den digitalen Verlust einzelner Konsonanten oder Vokale.

Auch die Integration bewegter Bilder ist für das Netz kein Pro-blem. Ob via PC, Settop-Box oder Handy, fernsehen lässt es sich dank IP auf allen Geräten. Der deutsche Markt für IP-TV ist allerdings bis-lang noch klein. Für das Jahr 2012 prophezeit Capgemini Consulting Telecom Media & Entertainment (CCTME) immerhin etwa 1,7 Mil-lionen Kunden. So trägt in Zukunft sicherlich auch die Integration der Echtzeit-Visualisierung zu einer besseren Kommunikation in den Unternehmen bei.

Um potenziellen Unternehmens-kunden einen besseren Eindruck davon zu vermitteln, wie viel Zeit und Geld ihnen bei einer Fortschrei-bung fragmentierter Kommunika-tionsstrukturen verlorengeht, hat Siemens Enterprise Solution beim kanadischen Marktforschungsinsti-tut Insignia Research eine Studie in Auftrag gegeben. Bei den mehr als

500 befragten Unternehmen in den USA, Kanada und Europa kristalli-sierten sich mehrere Problempunkte heraus, die mit Hilfe einer Unified-Communications-Lösung zu großen Teilen entschärft werden könnte.

So verzögerte sich beispielsweise der Arbeitsfluss allein durch das Warten auf Informationen von Kol-legen im Schnitt um etwa 5,3 Stun-den pro Woche. Laut Insignia ein Problem, das direkt mit der Nutzung nicht zusammenhängender Kom-munikationssysteme verbunden ist. Als weitere entscheidende Produk-tivitätshemmnisse entpuppten sich die ineffiziente Koordination unter Kollegen, ein fehlender Zugriff auf vorhandene Kommunikationstools, insbesondere außerhalb des Büros, sowie die Zeit zur Bearbeitung von Kundenbeschwerden, die aufgrund mangelhafter Kommunikation entstanden waren. Teils machte die ineffiziente Kommunikation sogar kostenträchtige Geschäftsreisen nö-tig. Alles in allem plagen sich die Mitarbeiter laut Umfrage so über die Hälfte ihrer Arbeitszeit mit unzulänglichen Kommunikations-mitteln herum. Und das kann laut Insignia bei einem Unternehmen mit hundert Mitarbeitern schon ein-mal Kosten in Millionenhöhe ver-ursachen. Unbestreitbar könnte der Kommunikationsleerlauf massiv re-duziert werden, wenn Unified Com-munications es schafft, die richtigen Leute zur richtigen Zeit mit den nö-tigen Informationen zu versorgen.

Business Communications

iP-Kommunikation als Wettbewerbsvorteil nutzenDie Anforderungen an die Kommunikationsinfrastrukturen moderner Unternehmen sind gestiegen. Wer gegenüber seiner Konkur-renz Vorsprung gewinnen will, sollte über moderne, zentralisierte Kommunikationslösungen nachdenken.

Was schätzen die unterneh-men heute besonders an unified Communications?Durch Unified Communications

können Unternehmen ihre Mitar-beiter flexibler einsetzen. Mitarbei-ter können an jedem Ort, zu jeder Zeit und von unterschiedlichen Endgeräten aus mit Kollegen und Geschäftspartnern kommunizieren. Dieser Trend wird durch eine neue Generation von Mitarbeitern ver-stärkt, die mit Computer, Handy und Internet aufgewachsen ist. Sie arbeiten weniger zeitorientiert, da-für stärker zielgerichtet und haben eine ausgeprägte Teamorientierung.

aber ist eine umstellung nicht sehr aufwendig?Im Gegenteil, die Wirtschaft-

lichkeit von Unified Communica-tions spricht für sich. So hat eine amerikanische Studie ergeben, dass durch Unified Communications eine erhebliche Zeitersparnis möglich ist. Mitarbeiter haben dadurch mindes-tens 30 Minuten pro Tag mehr Zeit für produktive Tätigkeiten. Außer-dem lässt sich mit Unified Com-munications Geld sparen. So kann man nahezu kostenlos an jedem Arbeitsplatz Konferenzschaltungen einrichten. Bei Nortel sparen wir dadurch pro Nutzer mehrere hun-dert US-Dollar im Jahr.

Können sie uns ein unter-nehmensbeispiel nennen?Shell stellt zum Beispiel gerade

komplett auf Unified Communica-tions mit Microsoft und Nortel um.

Die rund 112.000 Mitarbeiter von Shell arbeiten in über 130 Ländern und sind häufig in virtuelle Teams eingebunden. Mit Unified Com-munications können internationale Projektteams besser und schneller zusammenarbeiten. Zugleich ver-spricht sich Shell eine Kostenredu-zierung, da die Komplexität der In-frastruktur reduziert wird.

und was bringt unified Com-munications dem einzelnen mitarbeiter?Sie finden auf Desktop-PC, Lap-

top oder Smartphone immer die-selbe intuitive Bedienoberfläche vor. Außerdem können sich die Mitar-beiter immer mit derselben User-ID einloggen, egal wo sie sind. Dann können sie sofort unter der nor-

malen Büronummer telefonieren, Mails schreiben, auf Dokumente zugreifen oder Web Collaboration und Conferencing Tools nutzen. Ein besonders augenfälliger Nutzen für die Mitarbeiter ist zum Beispiel das Präsenz-Management. Damit kann das typische Email-Ping-Pong oder Hinterhertelefonieren wegfallen, weil ich immer weiß, ob der Andere gerade erreichbar ist. Habe ich ein akutes Problem, können mir die neuen funktionsorientierten Archi-tekturen, die wir gemeinsam mit Partnern wie Microsoft und IBM entwickeln, die richtigen und auch verfügbaren Gesprächspartner an-zeigen, die mir bei der Lösung hel-fen. Dadurch kann man effektiver arbeiten.

Martin ruoff ist leader Enterprise Sales Engineering Central region

bei nortel

Fokus-interview: nortel

„das ende des email-Pingpongs“

Page 7: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur �

Die Omikron Data Quality GmbH sorgt für Qualität in Kunden-Stammdaten. Mit dem Einzug der serviceorientierten Architekturen (SOA) in den Un-ternehmen steigen die Anfor-derungen an die Datenqualität rasant an, meint Gründer und Geschäftsführer Carsten Kraus.

herr Kraus, was sind eigent-lich ‚schlechte daten’? Unvollständige Adressen,

falsche Anreden, Dubletten – es gibt viele Möglichkeiten, die im Geschäftsalltag sehr kostspielige Folgen nach sich ziehen. Wir haben eine Studie im gehobenen Mittel-stand durchgeführt und dabei er-fahren, dass in mehr als der Hälfte der Unternehmen 20 Prozent der Daten fehlerhaft sind.

sie sagen, mit hilfe von soa kann die datenqualität verbessert werden. Wie soll das gehen? Einerseits lassen sich Datenqua-

litätslösungen dank SOA besser in die gesamte Systemlandschaft im-plementieren. Andererseits poten-

ziert sich aber gerade durch SOA die Bedeutung der Datenqualität, so dass serviceorientierte Architek-turen ihre Vorteile ohne hochpro-fessionelle Datenpflege-Maßnah-men gar nicht gewinnbringend ausspielen können.

Warum nicht?Weil sich in serviceorientierten

Architekturen mehrere Anwen-dungen dieselben Daten teilen oder auf die Daten der jeweils anderen Anwendung zugreifen. Dabei müs-sen die Daten abgeglichen werden, beispielsweise um Dubletten zu vermeiden. Wir stellen immer wie-der fest, dass die Daten der anderen Anwendungen entweder gar nicht oder sogar falsch verstanden wer-den. Dazu ein Beispiel: Wenn die ‚Branche’ in der einen Datenbank als ‚Maschinenbau, in der anderen als ‚Masch.-Bau’ bezeichnet wird, denkt das System, es handele sich um zwei unterschiedliche Bran-chen. Fazit: Unternehmen, die SOA einführen und profitabel nut-zen wollen, brauchen ausgereifte Systeme zur Verbesserung der Da-tenqualität.

Mehr Effizienz und Sicherheit bei geringeren Betriebskosten verspricht das Server Based Computing. Die Idee dahinter: Alle Anwendungen und Daten befinden sich auf einem zentralen Server, mit dem der Nutzer über einen kleinen Computer (Thin Client) meist via Ethernet-Schnitt-stelle kommuniziert. Der Client ist dabei nur der Zugang zur Rechen-power des Servers – dort läuft die eigentliche Verarbeitung der Daten ab. Dieser Ansatz bietet einige Vor-teile: Die Thin Clients sind preis-wert, sehr klein, verbrauchen wenig Strom und können länger genutzt werden als übliche PCs. Sie haben keinen Lüfter (sind also geräuschlos) und keine Festplatte (wodurch sie immun gegen Computerviren sind).

Zudem wird der IT-Administrator entlastet: Die Wartung der einzel-nen Applikationen nimmt er nicht

mehr an jedem einzelnen Arbeits-platz separat vor, sondern einheitlich und zeitsparend auf dem zentralen Terminalserver.

Auch die Softwarekosten sinken. So wird beispielsweise nur ein ein-ziger Virenscanner auf dem Server benötigt, die Anwendungen – etwa Office-Software – kostet pro Lizenz weniger, und schließlich kommt man mit weniger Lizenzen aus, weil ohnehin nicht alle Mitarbeiter gleichzeitig zum Beispiel auf die Textverarbeitung zugreifen. Allein

dadurch lassen sich fünf bis zehn Prozent der Lizenzkosten sparen. Wer zudem auf Linux umsteigt, kommt noch günstiger weg, falls das nötige Know-how im Unterneh-men vorhanden ist.

„Für den Nutzer sehen die Pro-gramme aus wie gewohnt, und sie werden auch genauso bedient“, sagt Frank Lampe, Marketing-Manager bei der Bremer IGEL Technology GmbH. Das Unternehmen hat sich auf die Entwicklung von Thin Cli-ents spezialisiert und bietet eine ganze Palette von Geräten mit un-terschiedlicher Leistungsfähigkeit. „Das günstigste Gerät kostet ohne Bildschirm 199 Euro, Top-Produkte mit umfassender Ausstattung liegen bei 599 Euro“, so Lampe. Nach sei-

ner Erfahrung werden die Produkte im Schnitt fünf bis sieben Jahre ge-nutzt. Selbst alte PCs könne man mit einer Einbaukarte für 99 Euro – sie ersetzt dort die Festplatte – in einen Thin Client verwandeln und so noch lange Zeit weiterverwenden.

Welche Hardware für die Re-chenzentrale benötigt wird, hängt sehr von der Unternehmensgröße

ab: „Bei kleinen Netzwerken oder für Schulen mit bis zu 20 Nutzern reicht ein normaler PC als zentraler Server für die Thin Clients völlig aus, Kunden mit hunderten oder tausenden von Clients haben hin-

gegen ein Rechenzentrum im Hin-tergrund“, so Lampe. Die Kunden von IGEL kommen vor allem aus den Bereichen Banken und Versi-cherungen, dem Gesundheitswesen und dem Handel. Weltweit sollen dieses Jahr drei Millionen Thin Cli-ents verkauft werden, rund 300.000 davon in Deutschland. Der Markt-anteil von IGEL liegt hierzulande derzeit bei rund 27 Prozent. Lampe betont auch den ökologischen As-pekt der Thin Clients: Der Strom-verbrauch sei wesentlich geringer als bei einem PC – die Geräte nehmen nur rund 20 Watt Leistung auf. Au-ßerdem werde auch für die Produk-tion weniger Energie benötigt, und am Ende der Lebensdauer falle zu-dem weniger Elektroschrott an.

Server Based Computing

Klein, leise und effizientThin Clients sind kleine Computer, die über eine Schnittstelle auf einen Server zugreifen und dem Nutzer so dessen Rechenleistung zugänglich machen. Durch dieses Server Based Computing kann man an vielen Stellen Kosten sparen.

Fokus-interview: omikron data Quality

gute daten, schlechte daten

Von ChrIsTIan BuCK

Serviceorientierte Architek-turen (SOA) sind derzeit ein Top-Gesprächsthema unter IT-Ex-perten. Die Idee dahinter: Statt monolithischer Riesenprogramme mit vielen Funktionen nehme man einfach viele kleinere Module („Le-gosteine“), die über Schnittstellen miteinander kommunizieren. Dabei entsprechen die schlanken Software-Module einzelnen Prozessschritten im Geschäftsablauf – zum Beispiel der Erfassung einer Bestellung, der Bonitätsprüfung oder der Kommis-sionierung der Ware. Sie werden in definierter Reihenfolge aufgerufen und geben ihre Informationen über standardisierte Schnittstellen an das jeweils nachfolgende Modul weiter.

Der Vorteil des SOA-Konzeptes: Dank der modularen Struktur kann die IT schnell und flexibel an neue Geschäftsprozesse angepasst und für neue Dienstleistungen fit gemacht werden. Zudem können die einzel-nen Module – etwa die Kreditkar-tenprüfung – von vielen Nutzern aus unterschiedlichen Unterneh-mensbereichen verwendet werden. Künftig muss also nicht mehr jede E-Commerce-Anwendung eines Handelskonzerns diese Funktion be-herrschen – das soll Kosten senken. Einzelne Module – etwa die Boni-tätsprüfung – könnten sogar bei externen Dienstleistern laufen und problemlos in die Unternehmens-IT eingebunden werden.

Der IT-Branchenverband BIT-

KOM prophezeit: „Serviceorien-tierte Architekturen werden in den nächsten Jahren Einzug in die kom-plexen IT-Systemlandschaften vieler Unternehmen halten.“ Bereits für das Jahr 2010 werde der Umsatz mit SOA-Software und -Diensten auf weltweit knapp 40 Milliarden Euro geschätzt, der Gesamtmarkt wachse jährlich mit 43 Prozent. Dabei ent-falle ein Großteil der Umsätze auf den amerikanischen Markt, gefolgt von Europa und Asien.

„Das Thema SOA wird derzeit von allen Seiten getrieben“, so An-dreas Stiehler vom Berliner Markt-forschungsunternehmen Berlecon. „Sowohl Technologieanbieter als auch IT-Dienstleister erwarten hier hohe Umsätze.“

„Viele große Unternehmen ha-ben bereits Pilotprojekte gestartet, die kleinen warten eher noch ab“, so Stiehler. „Das meiste steckt noch in der Beratungsphase.“ Aber das In-teresse wächst: „Jetzt erleben wir die zweite Welle: Die Unternehmen ha-ben das Konzept SOA jetzt verstan-den“, sagt Thomas Arlt, SOA-Ex-perte von Accenture. Die erste Welle sei vor 18 bis 24 Monaten gewesen. Damals habe es einige erste Umset-zungen gegeben, die aber stark von der IT getrieben waren.

Genau davor warnen die Berater aber: „Man braucht eine klare An-forderung auf der Geschäftsebene, der Anstoß muss vom Business kommen“, so Arlt. Weitere Fehler bei der SOA-Einführung: Unter-nehmen legen die Einführung einer

SOA zu breit an, weil sie zum Bei-spiel von Anfang an alle Geschäfts-bereiche mit einbeziehen. Und es wird zu wenig auf die Governance, also Zuständigkeiten und Entschei-dungswege, geachtet.

Und wie sieht die vorläufige SOA-Bilanz aus? „Erste Erfahrungen zeigen, dass die Flexibilität durch SOA tatsächlich gestiegen ist“, sagt Wolfgang Beinhauer vom Fraun-hofer-Institut für Arbeitswirtschaft und Organisation. So sei es Unter-nehmen dadurch gelungen, neue Dienstleistungen schneller auf den Markt zu bringen. Besonders in-teressant sei SOA für die Logistik, Banken und andere Dienstleister – überall dort, wo ein großer Teil der Wertschöpfung über IT-Systeme realisiert werde.

Das Modehaus s.Oliver startete seine erste SOA-Anwendung Ende Februar 2005. Anstoß war der Wunsch nach einem neuen Online-Auftragserfassungssystem. „Die Al-ternative zu SOA wäre die Anschaf-fung einer komplett neuen Software gewesen“, so CIO Stefan Beyler. Stattdessen wurde eine bestehende Anwendung neu zugeschnitten, und die so entstandenen Services wurden dann über einen Enterprise-Service-Bus verknüpft. „Heute hat s.Oliver neue Features, die man nicht kaufen kann“, resümiert Beyler. „Die Wert-schöpfungskette wurde durch die clevere Zusammenstellung der Ser-vices verbessert.“

Ab welcher Unternehmensgröße macht die Einführung von SOA

Serviceorientierte architekturen

soa kommtKlein und flexibel statt groß und schwerfällig – das ist die Idee hinter den ser-viceorientierten Architekturen. Das Konzept ist derzeit eines der ganz heißen Themen in der Softwarebranche.

mehreffizienz

mehrsicherheit

Sinn? „Flexibilität und Agilität sind für alle Unternehmen interessant, weil alle mit Veränderungen kon-frontiert sind“, sagt Markus Hie-ronimus, SOA-Experte bei IBM. „KMUs können schnell und prag-matisch reagieren, weil die IT dort überschaubar ist.“ Auch Thomas Arlt sieht in der Unternehmens-größe nicht den entscheidenden Faktor: „SOA lohnt sich für Un-

ternehmen jeder Größenordnung, es kommt jedoch immer auf den Einzelfall an.“ Wolfgang Beinhauer gibt sich hier schon etwas skep-tischer: „Für kleinere Unternehmen ist es eher weniger interessant – aber es gibt auch hier sinnvolle Beispiele, etwa wenn ein kleines Unternehmen in vielen Ländern vertreten ist und dort mit leicht unterschiedlichen Prozessen arbeitet.“

Page 8: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

Wachsende Bedrohungen und gestiegene gesetzliche Anforde-rungen machen einen optima-len Schutz der IT unverzicht-bar. Worauf man achten muss, erklärt Michael Girg, Geschäfts-führer der Lampertz GmbH & Co. KG.

Welches sind die größten risi-ken für die unternehmens-it?Es gibt vier Arten von Bedro-

hungen: Technische Gefahren wie

der Ausfall von Festplatten. Lo-gische Gefahren mit den gefürch-teten Viren, Würmern und Troja-nern. Organisatorische Gefahren durch fehlendes Training von Not-fällen in der IT. Und physikalische Gefahren wie Feuer, Wasser, Ein-bruch oder Vandalismus. Diese sind zwar schlecht einzuschätzen, etwa was den Eintrittszeitraum oder das Schadenspotenzial betrifft, sie sind aber durchaus wahrscheinlich.

Welche persönlichen Konse-quenzen können im ernstfall das management treffen?Unterscheiden muss man zwi-

schen den harten rechtlichen Fol-gen wie Verstößen gegen § 43 des GmbH-Gesetzes – mangelnde Sorg-falt eines Kaufmanns – und den ebenso problematischen Auswir-kungen von unzureichender IT-Si-cherheit bei der Festsetzung von

Kreditkonditionen nach Basel II. Zudem muss die Unternehmens-führung auch gegenüber anderen Eventualitäten gerüstet sein – zum Beispiel bei Bränden oder Daten-diebstahl. Hier ist der Verantwort-liche, der keine Vorsorge trifft, ganz schnell in der Haftungsfalle.

Wie gut sind nach ihrer er-fahrung die deutschen un-ternehmen auf diese risiken vorbereitet?Nicht besonders gut – vor allem

im Mittelstand tun sich enorme Lü-cken auf. Nach vielfach erheblichen Investitionen in neue IT-Systeme wiegt man sich in trügerischer Si-cherheit – und die erheblichen Ri-siken eines IT-Ausfalls aufgrund ei-ner Katastrophe werden weiterhin ignoriert. Naturkatastrophen wie Überschwemmung oder Erdbeben nehmen aber ebenso zu wie Brände,

Stromausfälle oder Sabotagen. Das sehen Sie täglich in den Nachrich-ten.

Was kann man tun, um die-sen gefahren zu begegnen?Zunächst hilft eine unabhän-

gige Analyse der Ausgangssituation der IT und der möglichen Schadens-potenziale enorm weiter. Danach muss ein Masterplan entwickelt werden, um die Risiken zu beseiti-gen. Dabei stellt der Schutz der IT vor physikalischen Gefahren die Grundlage aller anderen Maßnah-men dar. Neben dem geprüften Si-cherheitsraum sind die Klimatisie-rung, die Energieversorgung, eine Branderkennung und eine Löschan-lage notwendige Bestandteile eines Rechenzentrums. Für den Mittel-stand gilt es, die Racksysteme in einem „Schutzmantel“ unterzubrin-gen, der einem üblichen Rechen-

zentrum vergleichbar ist – zum Bei-spiel im Lampertz Modulsafe LMS 9.3.

mit welchen Kosten muss man dabei rechnen, und wie lange dauert die umsetzung eines sicherheitskonzeptes? Um ein Sicherheitskonzept um-

zusetzen, braucht es Zeit, um Mit-arbeiter einzubinden und die Or-ganisation vorzubereiten. Für die Umsetzung selbst brauchen Sie je-doch erfahrene Projektmanager, welche die zahlreichen Schnittstel-len eines Rechenzentrums im Blick behalten. Unsere Erfahrung als Ge-neralunternehmer aus der Konzep-tion und dem Bau kompletter Re-chenzentren beweist immer wieder die alte Weisheit, dass viele Beteili-gte das Konzept eher verderben und dass dabei nur die Kosten steigen, nicht aber der Erfolg.

interview lampertz

„das management ist ganz schnell in der haftungsfalle“

Wolfgang Gnettner, Director Dynamic Data Center Technolo-gies bei Fujitsu Siemens Compu-ters, nennt viele Möglichkeiten, im IT-Bereich erheblich Energie einzusparen.

Welchen stellenwert hat energieeffizienz bei ihren Kunden?

Im Consumer-Bereich spielt sie bisher kaum eine Rolle. Geschäfts-kunden achten stärker darauf, weil sie immer auch an ihre Stromrech-nung denken. Viele Betreiber von Rechenzentren wissen hingegen oft gar nicht, wie viel sie für Energie bezahlen, weil diese Kosten in der Miete inbegriffen sind. Dabei sind sie ganz erheblich: Man rechnet mit 50 Cent Stromkosten pro Euro Hardwarekosten, Tendenz steigend. Das Thema wird also immer wich-tiger, und darum bieten wir be-sonders effiziente Server und einen ‚grünen Consumer-PC’ mit hoher Energieeffizienz an.

mit welchen maßnahmen kann man energie effizienter einsetzen?

Etwa ein Drittel der Energie eines Rechners verbraucht die CPU. Hier sollte man nicht das leistungsfä-higste Modell einer Serie verwen-den, weil die letzten Prozent mehr Leistung überproportional viel Energie brauchen. Moderne CPUs können die Taktfrequenz absenken, wenn sie nicht voll beansprucht sind – diese Option sollte man einschalten. Beim Netzteil sollte man auf eine hohe Effizienz von 80 Prozent oder mehr achten und überlegen, ob man für einen Server wirklich ein zweites, redundantes Netzteil braucht. Im Consumer-Bereich reicht meist ein 250-Watt-Netzteil. Und schnelle Festplatten mit 10.000 Umdrehungen pro Mi-nute und mehr braucht man nur für Datenbanken.

Bedeutet mehr energieeffizi-enz auch höhere Kosten?Wir haben das für einen Server

durchgerechnet – der gleiche Ba-sisrechner, bestückt mit mehr oder weniger effizienten Komponenten. Das Ergebnis: Bei gleicher Leis-tung sank der Energieverbrauch um 33 Prozent. Das effizientere System kostet zwar 300 Euro mehr, spart aber 200 Euro Stromkosten pro Jahr – inklusive der Kosten für die Kühlung, und das bei einer Lebens-dauer von vier bis sechs Jahren. Bei einem Consumer-PC kamen wir auf ein Energieeinsparpotenzial von 25 Prozent.

gibt es auch organisato-rische maßnahmen, die energie sparen helfen?

Durch Virtualisierung lässt sich die Auslastung von Servern in der Praxis von zehn Prozent auf 40 Prozent steigern. Zudem wird aus Sicherheitsgründen oft die Hard-ware doppelt vorgehalten – meist reicht es aber, für zehn Server nur einen einzigen als Reserve zu haben. Wenn man die Rechenzentrum-stemperatur beispielsweise von 20 auf 28 Grad erhöht, spart man bei der Klimatisierung ebenfalls viel Energie. Das gilt auch für die strikte Trennung von Warm- und Kaltluft. Und schließlich sollte man die Ser-ver abschalten, wenn man sie nicht braucht – dies kann durch geeignete Software automatisch erfolgen.

www.fujitsu-siemens.de

interview Fujitsu Siemens Computers

„Viele kennen ihre stromkosten gar nicht“

Die Bit GmbH entwickelt ei-nen Indikator, mit dem die Quali-tät von Rechenzentren gemessen werden kann. Geschäftsführer Gunther ter Bahne erklärt, wie das Verfahren funktioniert und warum es nützlich ist.

sie haben ein indikatorsys-tem für die Verfügbarkeit von rechenzentren entwi-ckelt. Was steckt dahinter? Seit dem 29. August 2007 arbei-

ten wir im Auftrag des Bundesamtes für Sicherheit in der Informati-onstechnologie (BSI) und in Koo-peration mit der Fachhochschule Frankfurt an der Entwicklung eines Indikatorsystems für die Verfüg-barkeit von Rechenzentren (IVRZ). Der Fokus liegt dabei auf der In-frastruktur. Die Qualität eines Re-chenzentrums drückt sich in seiner Verfügbarkeit aus. Unternehmen setzen erhebliche Mittel ein, um di-ese Verfügbarkeit zu verbessern. Das Projekt IVRZ dient dazu, erstmals

die Qualität und damit die Verfüg-barkeit in einem normierten Verfah-ren zu bewerten. Gelingt uns dies, kann erstmals die Verfügbarkeit verschiedener Rechenzentren ver-glichen werden. Die Qualität eines Rechenzentrums kann dann an ei-ner Kennziffer abgelesen werden.

Welchen nutzen hat ein unternehmen, wenn es sein rechenzentrum nach ihrer methode bewerten lässt? Die Verfügbarkeit eines Rechen-

zentrums wirkt sich direkt auf die Betriebssicherheit des Unterneh-mens aus. Wie lange kann heute eine Bank oder ein produzierendes Gewerbe mit dem Ausfall seines

Rechenzentrums leben? Diese Zeit hat sich in den vergangenen Jahren mit der zunehmenden Abhängig-keit von der EDV wesentlich ver-kürzt. Die Betriebssicherheit ist auch in Basel II und im KonTraG eine wichtige Kennziffer zur Be-wertung eines Unternehmens. Mit der neuen Kennziffer erhält ein Un-ternehmen ein starkes Instrument. Und das Unternehmen kann seine Investitionen auch mit Hilfe dieser Kennziffer effizienter steuern.

Wie gehen sie bei der Be-wertung vor, und welcher aufwand muss dafür betrie-ben werden?Wir haben einen Fragenkatalog

mit ungefähr hundert Fragen entwi-ckelt. Hinter diesen Fragen sind die Indikatoren hinterlegt, die vorher durch ein Expertenteam gewichtet wurden. Für die Beantwortung der Fragen werden lediglich rund ein-einhalb Stunden benötigt. Gerne können sich Betreiber von Rechen-zentren an uns wenden. Das Pro-jekt wird im März 2008 mit einer Validierungsphase enden. Wer sich an der Validierungsphase beteiligen oder sein Rechenzentrum einer Be-wertung unterziehen möchte, kann uns dies formlos per E-Mail mittei-len.

Kontakt: [email protected]

interview Bit

„erstmals kann die Verfügbarkeit von rechenzentren verglichen werden“

ITK Infrastruktur

EXpErtEnpanEl

Page 9: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur �

Michael Ganser, Vice President Cisco Europe und Managing Di-rector Cisco Germany, empfiehlt Konsolidierung und Virtuali-sierung sowie intelligente Netz-werktechnologie als Maßnahmen für mehr Energieeffizienz.

grüne it ist seit kurzem in al-ler munde – ein neuer hype?Seit in der Wissenschaft Kon-

sens herrscht, dass der Mensch we-sentlichen Anteil an der globalen Erderwärmung hat, wächst der

Handlungsdruck erheblich, und ich gehe davon aus, dass dies kein kurzfristiges Thema ist. Auch auf die ITK kommt beim Klimaschutz eine langfristige und wichtige Auf-gabe zu.

die rechenzentren stehen derzeit im mittelpunkt der diskussion – was kann man in diesem Bereich tun?Konsolidierung und Virtualisie-

rung sind die Antwort. In vielen Re-chenzentren sind die Komponenten physisch verteilt und werden jeweils nur zu einem geringen Prozentsatz genutzt. In einem intelligenten Netzwerk werden Konsolidierung und Virtualisierungs-Technologien eingesetzt, die zur Reduzierung der Gesamtanzahl von Einzel-Kompo-nenten beitragen. Im Prinzip fin-det eine virtuelle Zentralisierung der Ressourcen statt. Der Strom-verbrauch wird durch die höhrere Auslastung verringert. Im Ergebnis könnte der Energiebedarf um 85

% gesenkt und die Server-Effizienz von derzeit rund 15 auf über 70 % erhöht werden. Zusätzlich arbeiten wir auch daran den Stromverbrauch der restlichen Komponenten im Re-chenzentrum zu reduzieren.

auch das internet ver-braucht riesige mengen an energie – wie kann man hier sparen?ITK hat heute einen Anteil von

zwei % am gesamten CO2-Ausstoß. Der Betrieb von Gebäuden und Fabriken, Logistik und Reisen gel-ten mit einem Anteil von 98 % als Hauptverursacher von CO2-Emissi-onen. Woran noch zu wenig gedacht wird: Intelligente Netzwerktech-nologie kann gerade hier nachhal-tig wirken. Sie kann so eingesetzt werden, dass Unternehmen in die-sen Bereichen ihren CO2-Ausstoß senken können. Videokonferenzen in Echtzeit und Lebensgröße, so-genannte TelePresence, anstatt Geschäftsreisen ist ein Weg. Ein

anderer ist netzwerkbasiertes Ge-bäudemanagement, was wir zum Beispiel in unserem Amsterdamer Büro anwenden. Wir wollen bei Klimamanagement, Beleuchtung und dem Betrieb von Bürogeräten den Energieverbrauch um 52 und den CO2-Ausstoß um 51 % senken. Wichtig ist auch die Reduktion von Spam. Der hohe Anteil von Spam am Datenverkehr ist ein extremer Energiefresser. Aber lassen Sie es mich auch von der anderen Seite her betrachten: Die Integration von Sprach-, Daten- und Videoverkehr in ein Netzwerk spart Energie. Ich muss nur noch ein Netzwerk be-treiben. Virtuelle Zusammenarbeit über das Internet vermeidet aber auch Reiseaufwand: Stichwort E-Commerce.

Was tut Cisco gegen den Klimawandel? Einige Beispiele habe ich oben

schon genannt. Wir haben eine Reihe fundamentaler Grüne-IT-

Initiativen gestartet. So gibt es bei Cisco in Deutschland ein „Green Board“, wo das Management Poten-ziale erschließt, die uns als Unter-nehmen „grüner“ machen können. Wir sind mit einem Portal www.gruene-it.org live gegangen, das als Treffpunkt für Unternehmen, Inter-essensguppen und andere Vordenker konzipiert ist und den Austausch von Ideen, Konzepten und Erfah-rungen rund um Grüne IT fördern soll. Wir engagieren uns auch in der Clinton Global Initiative für Kli-maschutzkonzepte von Großstäd-ten. Im Rahmen dieser Initiative wird Cisco selbst seinen weltweiten CO2-Ausstoß beträchtlich senken. Der intelligente Einsatz von web-basierten Applikationen zur Zu-sammenarbeit ist für uns hier der Schlüssel. Dies ist bei uns mit einem 20-Millionen-Dollar-Investment in neue Technologien wie TelePresence verbunden.

www.cisco.com

interview Cisco

„Klimaschutz ist eine wichtige aufgabe für die itK-Branche“

Raimund Schlotmann, Ge-schäftsführer von Itella in Deutschland, beschreibt, wie man Rechnungen und andere Dokumente mit Informations- und Dokumentenlogistik effizi-enter versenden und empfangen kann.

itella bietet „dokumenten- und informationslogistik“ an – was steckt dahinter?Typische Prozesse der Dokumen-

ten- und Informationslogistik sind Eingang und Versand sowie Vertei-lung und Archivierung von Doku-menten und Informationen. Also Transaktionsprozesse zwischen Un-ternehmen, Niederlassungen, Kun-den und Lieferanten. Eine zentrale Plattform wie der Itella Exchange als Drehscheibe für die Verbindung der Geschäftspartner gestaltet diese Prozesse effizient und ohne Einfüh-rungshürden. Die angeschlossenen Unternehmen nutzen die zentrale Technologie für papierbasierte und zunehmend elektronische Doku-

menten- und Informationsprozesse – und zwar immer genau im benö-tigten Umfang.

Wie könnte ein konkretes Beispiel aussehen?Ein wichtiger Anwendungsfall

sind Rechnungen. Ein Rechnungs-steller übergibt seine Daten direkt aus seinem Fakturierungssystem über eine zentrale Schnittstelle an den Itella Exchange. Itella bereitet die Daten auf und verschickt die Rechnungen über den jeweils ge-wünschten Kanal, zum Beispiel Print oder elektronisch. Neben der Optimierung von Druck und Post-versand sorgt dies für eine besonders schnelle und einfache Umstellung

auf Kosten sparende vollelektro-nische Prozesse. Auf der Empfänger-seite bündeln wir alle eingehenden elektronischen und papierbasier-ten Rechnungen und geben sie in einem Datenformat weiter, das eine schnelle und einfache elektronische Weiterverarbeitung über Work-flows ermöglicht. Um kontinuier-lich die Kosten für die Kunden zu senken, bringen wir die Lieferanten Schritt für Schritt auf elektronische Prozesse. So wird der gesamte Pro-zess automatisiert: vom Posteingang über Prüfung und Freigabe bis hin zur Zahlung der Rechnungen.

Welche Vorteile bringt das für Kunden?

Das On-Demand-Modell mini-miert Risiken und Investitionsauf-wand. Denn es erspart den Kunden die Anschaffung von Hard- und Software und den Aufwand für Funktionserweiterungen. Die Kun-den nutzen papiergebundene und elektronische Dokumenten- und In-formationslogistik ganz flexibel als On-Demand-Service und optimie-ren ihre Prozesse Schritt für Schritt und ohne wiederholten Projektauf-wand. Bisher beschäftigen sich in Unternehmen mittlerer Größe oft bereits 20 bis 50 Personen mit ma-nueller Dokumentenbearbeitung. Das ist nicht effizient. Eine On-De-mand-Lösung schafft sofortige Ab-hilfe.

interview itella

„on-demand-modell minimiert risiken und investitionsaufwand“

TeraGate-Vertriebsvorstand Ernst Joachimsthaler beschreibt, warum Ethernet in Weitver-kehrsnetzen die Leistung stei-gern und die Komplexität ver-ringern kann.

ethernet kennt man bis-her vor allem von lokalen

netzwerken. Welche Vorteile bietet sein einsatz in einem Wide area network (Wan)?Mit Ethernet im WAN können

Unternehmen die Struktur und den Betrieb ihrer Unternehmensnetze stark vereinfachen: Die gesamte Unternehmenskommunikation läuft Ende zu Ende über nur ein Protokoll. Die Komplexitäten und hohen Investitionskosten bishe-riger Weitverkehrsnetze auf Basis von ATM, SDH und Frame-Relay gehören damit der Vergangenheit an. In Kombination mit optischer DWDM-Technik werden Daten deutlich schneller übertragen, was gerade beim Betrieb von Weiter-verkehrsnetzen von zentraler Be-

deutung ist. Dadurch können zum Beispiel kostenintensive, verteilte Serverstrukturen konsolidiert wer-den. Optisches Ethernet im WAN bietet eine bessere Performance zu geringeren Kosten.

Welche Produkte bietet teragate auf Basis von ether-net und dense Wavelength division multiplexing an?Mit TeraGate IntelligentEther-

net® haben wir den Ethernet-WAN-Service der nächsten Gene-ration entwickelt. Er basiert auf der ausfallsicheren VPLS-Technologie (Virtual Private LAN Service) und bietet zahlreiche Gestaltungsmög-lichkeiten. So kann die Anzahl

der an einem Standort verfügbaren Dienste durch VLANs (Virtual Lo-cal Area Networks) variiert werden. Hinsichtlich der Topologien sind Punkt-zu-Punkt-Verbindungen, aber auch komplexe Designs wie zum Beispiel Punkt zu Multipunkt oder Fully Meshed möglich. Protec-tion-Funktionalitäten erhöhen die Verfügbarkeit von Diensten und Standorten. Und als einziger und erster Anbieter deutschlandweit haben wir einen Speedregler im Programm: Über das Onlineportal TeraWeb verändern unsere Kunden ihre Bandbreiten selbst, in Sekun-denschnelle und per Mausklick.

für welche unternehmen ist

ein ethernet-basiertes Wan besonders interessant?Ethernet im WAN eignet sich

besonders für Unternehmen, die auf Kosteneffizienz bei hoher Per-formance und Verfügbarkeit setzen. Dies betrifft national, aber auch international und global agierende Unternehmen. Kostendruck und Globalisierung verlangen perma-nente Veränderungen in Organisa-tionen, Infrastrukturen und Appli-kationen. Vor diesem Hintergrund ist TeraGate IntelligentEthernet ein ideales Tool, um den permanenten Wechsel in Unternehmensnetzwer-ken optimal zu managen.

www.teragate.de

interview teragate

„Bessere Performance zu geringeren Kosten“

EXpErtEnpanEl

Page 10: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur10

gastbeitrag: retarus gmbH

e-mail-security sicher auslagern

Wer für die IT-Sicherheit in einem Unternehmen zuständig ist, hat oft keine ruhige Minute: Spam, Viren, Trojaner, Spyware und andere Formen bösartiger Programmcodes halten die Verantwortlichen per-manent auf Trab. E-Mail gilt nach wie vor als einer der Internet-Ser-vices, von dem die meisten Bedro-hungen ausgehen. Die Flut ständig neuer Probleme lässt sich dabei mit den intern vorhandenen Ressourcen

immer schwieriger bewältigen. Ein Beispiel dafür sind unerwünschte Werbemails, die die elektronischen Postkörbe der Anwender überfluten. Die Datei-Anhänge solcher Mails enthalten zudem oft Spyware und anderen Schaden stiftenden Pro-grammcode. Ganz nebenbei wird die Infrastruktur mit einer Flut un-zustellbarer E-Mails belastet. Oft wird hier versucht, E-Mail-Adressen zu ermitteln oder Infrastrukturen

lahm zu legen. Als Managed-Services-Partner

von Unternehmen aller Größen und Branchen hat Retarus in seinen Re-chenzentren einen guten Überblick über die Struktur des E-Mail-Ver-kehrs. So sind bis über 90% aller für Unternehmen eingehenden E-Mails schlicht überflüssig. Sie enthalten Spam und Viren oder dienen als Phishing-Angriffe. Mitunter sind weniger als zehn Prozent des Mail-Aufkommens für Unternehmen „nützlich“. 70% der Mails werden von Retarus nicht an Kunden wei-tergeleitet, da es keinen gültigen Empfänger gibt. Dieser hohe Anteil an nutzlosem „Traffic“ erzeugt nur Last bei Leitungsprovidern, E-Mail Benutzern und Mailservern von Un-ternehmen. Für eine dauerhafte Lö-sung der Sicherheitsprobleme sorgen Managed E-Mail Services. Dabei werden alle eingehenden und wahl-weise auch ausgehenden E-Mails auf die Rechenzentren eines Dienstleis-ters umgeleitet, wo sie verschiedene

Filterroutinen durchlaufen. Im opti-malen Fall werden zunächst alle un-zustellbar adressierten E-Mails aus-sortiert. Anschließend werden alle elektronischen Schädlinge durch mehrere Virenscanner erkannt und unschädlich gemacht. Eine deutlich erhöhte Erkennungsrate von Virus-Mutationen und der viel schnellere Schutz vor neuen Bedrohungen spricht dabei für ein Mehrfachscan-ner-Konzept. Zu guter Letzt gilt es, die übrig gebliebenen Spam-Mails auszufiltern. Als Spam deklarierte Mails werden nicht direkt zuge-stellt, sondern in einer Quarantäne zwischengespeichert. Der Anwender wird in definierbaren Zeitabständen durch übersichtliche Benachrichti-gungen darüber informiert, welche Spam- und Viren-Mails abgefangen wurden. Da auch die besten Anti-Spam-Lösungen ab und zu einen sogenannten „false positive“ erzeu-gen, d.h. eine erwünschte Nachricht wird irrtümlich als Spam abgefan-gen, kann der Anwender eine solche

E-Mail in Sekundenbruchteilen per Mausklick direkt aus der Übersicht anfordern.

Ziel von Managed-E-Mail-Ser-vices ist es, nur relevante „Nutz-Nachrichten“ weiter zu leiten. Dies hat klare Vorteile: Die Systemlast auf Servern und Leitungen sinkt, Mitarbeiter werden weniger durch E-Mail-Probleme und Sicherheits-lücken belastet, die Mail-Laufzeiten werden beschleunigt und die Mit-arbeiter werden produktiver. Für die Unternehmensleitung ist dies auch finanziell attraktiv: Ohne ständige Hard- und Software-Investitionen kann für eine hohe Sicherheit, Ver-fügbarkeit und Performance der IT-Systeme gesorgt werden. Die Ausla-gerung von E-Mail-Services senkt Kosten und Aufwand im IT-Bereich und steigert die Qualität und Sicher-heit der Dienste.

oliver pannenbäcker, leiter Managed Services, retarus gmbH

gastbeitrag: avira

„spam-angriffe und ddos-attacken in ganz großem stil“

„Der Trend weg von breit ge-streuten Masseninfektionen hin zu gezielten, hoch professionellen Mal-ware-Angriffen wird sich verstärkt fortsetzen. Die häufigsten Szenarien der sogenannten „Targeted Attacks“ sind das unerlaubte Abziehen finan-zieller Mittel, das Ausspionieren von Betriebsinformationen, Lahmlegen von Unternehmen durch DDoS-At-tacken und Spearphishing-Angriffe. Da viele Unternehmen einen Image-Schaden fürchten, vertuschen sie derartige Vorfälle – die Dunkelziffer ist hier extrem hoch und wird weiter ansteigen: Die Krux beim Spear-Phising ist, dass die Emailnachrich-ten sehr individuell gestaltet sind und an einen sorgsam ausgewählten Empfängerkreis innerhalb eines Un-ternehmens gehen. Die Informati-

onen über Ansprechpartner, Verant-wortlichkeiten und Strukturen sind bei vielen Unternehmen auf der In-ternetseite abgelegt. Für Eindring-linge ist es also ein Leichtes, eine entsprechende Email zu fälschen und so glaubwürdig zu erscheinen – wer vermutet denn schon einen

Betrug, wenn sich etwa die IT-Sup-portabteilung meldet oder etwa der Betriebsrat? Der beste Schutz gegen solche zielgerichteten Attacken sind gut aufgeklärte Mitarbeiter.

In ganz großem Stil werden wir im kommenden Jahr auch Spam-Angriffe und DDoS-Attacken sehen, die Firmennetze binnen we-

niger Minuten lahmlegen werden. Damit einher geht die Bedrohung durch Rootkits. Um systematische Angriffe erfolgreich durchführen zu können, kapern Eindringlinge meist unprofessionell geschützte Privat-rechner und bauen große Botnetze auf: Dazu schleusen sie Rootkits in PCs ein, die ihr übles Werk ver-bergen wollen. Weil sich Rootkits so unauffällig im System einnisten, bleiben sie oft unbemerkt – das heißt, viele Computer führen ein Doppelleben, von dem der Anwen-der nichts weiß. Durch Überwachen der Tastatur lassen sich sehr leicht Passwörter ausspionieren oder eben Hintertüren zur Fremdsteuerung als Teil eines gefährlichen Botnetzes öffnen. Um derartigen Angriffs-szenarien vorzubeugen, sollten

Unternehmen einen umfassenden Virenschutz installiert haben, der auch versteckte Dateien, Prozesse und Registry-Einträge aufspüren, bewerten und gegebenenfalls ent-fernen kann.

Themen wie Industriespionage, Bundestrojaner, Schnüffelsoftware und Vorratsdatenhaltung werden sowohl Hersteller von Sicherheits-lösungen als auch Anwender kom-mendes Jahr weiter beschäftigen. Unserer Umfrage zufolge haben 70 Prozent der Computernutzer Angst vor einem Überwachungsstaat. Als Mitglied der Initiative „IT Security Made in Germany“ (ITSMIG) ha-ben wir hier ein Zeichen gesetzt und verschaffen unseren Anwendern die Gewissheit, dass der Virenschutz Avira AntiVir weder für den beruf-

lichen noch für den privaten Einsatz verdeckte Zugangskennungen und Zugangsmechanismen enthält, die Dritten einen vom Kunden nicht kontrollierten Zugriff auf das Com-putersystem ermöglichen oder si-cherheitsrelevante Funktionalitäten deaktiveren.“

tjark auerbach, gründer und ge-schäftsführer von avira

www.avira.de

• Sicherheitsmanagement & Beratung

• Business Continuity

• Penetrationstests & WAS Sicherheit

• Firewall-Audits

• Compliance und Datenschutz

it.sec GmbH & Co. KG – Sedanstr. 10 – 89077 Ulm - Tel. 0731-20589-0 – Fax: 0731-20589-29 – [email protected] – http://www.it-sec.de

viele Computer führen ein doppelleben

Page 11: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur 11

informationssicherheit

datensicherheit will gelernt sein IT-Verantwortliche wissen, dass die eigenen Mitarbeiter eines Unternehmens letztendlich das größte Risiko für den Informationsbe-stand sind. Doch immer noch mangelt es am Know-how dafür, wie das Problembewusstsein in der Belegschaft geschärft werden kann.

Von MIChaeL Gneuss

Christa von Waldthausen, Lei-terin Marketing und Kommuni-kation bei der FIDUCIA IT AG in Karlsruhe, muss heute oft Fragen von IT-Managern anderer Unter-nehmen beantworten. Sie ist die Projektleiterin der „Security Awa-reness“-Kampagne der FIDUCIA, und ihr Projekt hat inzwischen weit über die Unternehmensgrenzen hinaus Beachtung gefunden. Im September wurde die Kampagne als „ein herausragendes Projekt der betrieblichen Sicherheit“ mit dem Sicherheitspreis des Landes Baden-Württemberg ausgezeichnet. Das Steinbeis Beratungszentrum hat die FIDUCIA-Mitarbeiter nach Durch-führung der Kampagne getestet und ihnen nach dem selbstentwi-ckelten Security Awareness-Index einen beachtlichen Wert von 73,08 Prozent bescheinigt.

Noch viel mehr hat sich Projekt-leiterin von Waldthausen aber über das Feedback aus dem eigenen Haus gefreut. An dem zur Kampagne ge-hörenden Online-Quiz haben sich 1053 der insgesamt 2510 berech-tigten Mitarbeiter beteiligt. „Wenn man bedenkt, dass ein Teil der Be-schäftigten gar nicht am PC arbei-tet, sind 40 Prozent ein unglaublich hoher Wert. Damit habe ich bei wei-tem nicht gerechnet.“ Und von den Teilnehmern wiederum haben rund 60 Prozent alle 60 Fragen des Quiz komplett beantwortet. Die Zugriffe auf das Intranet-Sicherheitsforum

sind in den Kampagnenmonaten April (plus 505 Prozent gegenüber März) und Mai (plus 1000 Prozent gegenüber April) gewaltig in die Höhe geschossen.

„Für die FIDUCIA ist das Thema Informationssicherheit von her-ausragender Bedeutung“, erläutert Christa von Waldthausen. Das liege schon alleine an der Branche, für die der IT-Dienstleister arbeitet. Spezia-lisiert auf die Finanzwirtschaft, be-treut die FIDUCIA rund 800 Volks- und Raiffeisenbanken. „Die Marke FIDUCIA steht daher vor allem für Sicherheit“, so von Waldthausen.

Die Aufstellung und Hinterle-gung von Verhaltensrichtlinien für die Mitarbeiter – bei der es viele Unternehmen bewenden lassen – war für den IT-Dienstleister daher viel zu wenig. Im Rahmen der von Christa von Waldthausen und der Sicherheitsabteilung der FIDUCIA entwickelten Kampagne wurden die Mitarbeiter deshalb über Pla-kate, Filme, Flyer und Informati-onen im Intranet zu Sicherheitsthe-men informiert. Im Mittelpunkt stand ein Online-Quiz, für das sich alle Mitarbeiter registrieren konn-ten. Zur besseren Wahrnehmung der Kampagne wurde im Unter-nehmen ein Casting durchgeführt, um aus den eigenen Reihen einen geeigneten „Kopf“ zum Transport der Kampagnen-Botschaften in den Filmen, auf den Flyern und Plakaten zu finden.

Das Ziel war, die wichtigsten Si-cherheitsthemen in der Belegschaft

zu verankern und korrekte Verhal-tensweisen zu ritualisieren. „Es wäre aber falsch gewesen, die Kampagne zu überfrachten und alle Themen anzusprechen. Wir haben uns da-her auf vier wichtige Hauptthemen fokussiert“, sagt Christa von Waldt-hausen: Passwortsicherheit, der Schutz vertraulicher Informationen sowie der Umgang mit mobilen Geräten und Betriebsgeheimnissen standen auf der Agenda ganz oben. „Wichtig für den Erfolg war die starke Unterstützung der obersten Führungsebene und die originelle Ankündigung der Kampagne über die Filme, die die Mitarbeiter selbst untereinander verbreitet haben. Die hohe Beteiligung zeigt aber auch die hohe Bereitschaft unter den Mitar-beitern, sich mit dem Thema Infor-mationssicherheit zu beschäftigen.“ In zwei oder drei Jahren will die Projektleiterin eine neue Kampagne

starten, bis dahin soll es immer wie-der „Refresh-Aktionen“ geben.

Bei der FIDUCIA ist sich das Management sicher, einen wich-tigen und großen Schritt für die Ab-sicherung der Informationen getan zu haben. Ein großer Teil der Sicher-heitsprobleme in der IT von Unter-nehmen ist hausgemacht – auch in der Finanzbranche. Das britische Beratungsunternehmen Deloitte hat für seinen „Global Financial Se-curity Survey 2007“ weltweit 169 Finanzdienstleister befragt. Ergeb-nis: Meist entstanden Sicherheitslü-cken aufgrund von Irrtümern, fahr-lässigem Verhalten oder durch die Preisgabe sicherheitsrelevanter Da-ten durch Mitarbeiter. „Unterneh-men können das beste Sicherheits-system installieren. Es wird nicht effektiv funktionieren, solange die Menschen nicht über ihre Pflich-ten aufgeklärt sind und man ihnen

zeigt, wie sie diese erfüllen können“, sagt Mike Maddison, Leiter der Sparte Security und Private Services bei Deloitte. Sehr häufig wird die Breite des Themas Informationssi-cherheit nicht richtig eingestuft. Die Daten müssen sicher transportiert, gespeichert und verarbeitet werden. Dabei ist zu gewährleisten, dass nur autorisierte Personen Zugriff auf die Informationen bekommen. Es muss die Integrität sichergestellt sein, das heißt, eine unbemerkte und unge-wollte Veränderung der Daten ist auszuschließen. Und schließlich müssen die Informationen stets dort, wo sie benötigt werden, auch verfügbar sein. So ist die Sicherheit der Informationen für Unternehmen heute ein absolut geschäftskritisches Thema, das Investitionen erfordert. Und das gilt nicht nur für die Tech-nologie – auch in den Menschen muss investiert werden.

Feature: online-Banking

Banken rüsten gegen Betrüger aufIm Kampf gegen Phishing erzielen die Kreditinstitute große Erfolge mit neuen Sicherheitsverfahren. So gut wie keine Chance haben

Von hoLGer FranCK

Die Bedrohung durch Schädlinge im Internet und auf den Rechnern von Nutzern wird immer größer, die Leistung der Virenschutzher-steller und Banken im Kampf ge-gen die Bedrohung aber auch. Vor allem die Kreditinstitute arbeiten mit Hochdruck daran, Sicherheits-lücken zu schließen. Laut einer Umfrage der Marktforscher von ibi Research steht bei 80 Prozent der Institute die Sicherheit vor Troja-nern ganz oben auf der Prioritäten-liste. Aus gutem Grund: Nur noch fünf bis zehn Prozent der Schäden sind laut Bundesamt für Sicherheit in der Informationstechnik (BSI) im

Online-Banking auf plumpe Phi-shing-Mails zurückzuführen. Nach Zahlen des Virenschutz-Herstellers Panda Software sind 74 Prozent der neu programmierten Schädlinge da-gegen Trojaner.

Und die werden immer schneller per E-Mail verbreitet. Auch gute Firewall- und Virenschutz-Software kann nicht immer vor Eindringlin-gen schützen – die Banken sind da-her selbst gefordert, immer bessere Verfahren einzusetzen. Und das tun sie auch: So bietet die FIDUCIA IT AG, der größte IT-Dienstleister im genossenschaftlichen Finanzver-bund, den Volks- und Raiffeisen-banken in ihrem Geschäftsgebiet das mobileTAN-Verfahren für das

Internet-Banking an. Dieses Verfah-ren hat gegenüber anderen Sicher-heitsmaßnahmen für Online-Trans-aktionen einen bedeutenden Vorteil: Es nutzt zusätzlich zum Internet das Mobiltelefon für die Abwicklung von Online-Transaktionen.

Der Kunde liest die benötigte TAN (Transaktionsnummer) nicht mehr von einer Liste ab, sondern bekommt sie beispielsweise für jede Überweisung, die er im On-line-Banking vornehmen möchte, auf sein Handy geschickt. Mit der mobileTAN können Kunden die Überweisung auf das gewünschte Konto autorisieren. Selbst wenn ein Hacker diese Nummer danach auf dem Weg zur Bank abfangen sollte,

kann er mit der TAN nichts anderes anfangen, als die eigentliche Über-weisung zu bestätigen.

Der Kunde findet in der SMS neben der TAN noch einmal den Betrag und die Empfängerkonto-nummer, um alle Angaben auf ihre Richtigkeit überprüfen zu können. Die TAN gilt nur für diesen einen Auftrag und verfällt danach. Die Arbeitsgruppe Identitätsschutz im Internet (a-i3) hält das Verfahren für sicher, um alle bisher bekannten Angriffe von Online-Banking-Be-trügern ins Leere laufen zu lassen. Bestätigt wird dies durch das Güte-siegel „Secure iT“ des TÜV Rhein-land, mit dem die mobileTAN An-fang 2007 ausgezeichnet wurde.

Daneben hat FIDUCIA die indi-zierte Transaktionsnummer (iTAN) verbessert. Bei dem so genannten iTANplus-Verfahren gelangt der Kunde nach Übermittlung der Transaktionsdaten an die Bank auf ein „iTANplus-Kontrollbild“. Es zeigt die iTAN-Anforderung zusammen mit den Transaktions-daten sowie das Geburtsdatum des Kunden in einem digitalen Was-serzeichen. Sind alle Daten korrekt, gibt der Kunde die Transaktion mit der angeforderten iTANplus frei. Das Kontrollbild ist zusätzlich mit einem Raster unterlegt, das das ma-schinelle Auslesen der iTANplus praktisch unmöglich macht.

Page 12: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur1�

Von Lena BuLCzaK

In vielen Unternehmen ist die IT-Infrastruktur nur mangelhaft ausgelastet. Nach Erkenntnissen des Marktforschungsunternehmens Gartner bleiben typischerweise 75 Prozent der verfügbaren Server-kapazitäten ungenutzt und belasten die Wirtschaftlichkeit der IT-Infra-struktur. Da eine ständige Anpas-sung an das konjunkturbedingte Auf und Ab der Umsätze jedoch zu aufwendig wäre, haben viele Unter-nehmen den sauren Apfel akzeptiert und halten teure Rechenkapazitäten in Reserve, auf die sie nur zu Spit-zenzeiten zurückgreifen. Doch das muss nicht sein.

Die Antwort der Branche auf dieses Problem lautet Utility Com-puting. Das heißt, der Kunde bezieht Rechenleistung und Speicherkapa-zität aus der Datenleitung – genauso wie er den Strom aus der Steckdose

bezieht. Abgerechnet wird, wie auch beim Strom, nach Verbrauch. Der Vorteil: Dank zugekaufter flexibler IT-Infrastruktur kann sich das Un-ternehmen schneller und produk-tiver an Nachfrageschwankungen sowie die zunehmend kürzeren Pro-dukt- und Dienstleistungszyklen anpassen – und das bei geringeren Kosten.

Gegenüber der Eigenregie lassen sich laut Schätzungen von Gartner mit Utility Computing insgesamt zwischen 10 und 30 Prozent bei den Hardwarekosten und zwischen 30 und 60 Prozent bei den Personal-kosten einsparen. Die Kostenvor-teile ergeben sich dadurch, dass der Outsourcing-Dienstleister die vor-handenen Kapazitäten durch mo-derne Techniken der Infrastruktur-Virtualisierung effizienter einsetzen kann: Einzelne Server oder Speicher sind nicht mehr bestimmten Nut-zern oder Anwendungen vorbe-

halten, sondern werden zu einem Ressourcenpool gebündelt (Grid Computing), auf den der Nutzer über virtuelle Betriebssysteme zu-rückgreifen kann. Da die einzelnen Anwendungen beliebige Ressourcen nutzen, die zur Laufzeit frei sind, können so größere Rechenleistungen erbracht werden. Das herkömmliche Vorhalten von Leistungsreserven für Spitzenbelastungen wird somit überflüssig.

Praktisch im Hinblick auf Kon-junkturschwankungen ist dabei, dass die Unternehmen fixe in vari-able Kosten umwandeln können. Denn die IT- und Netzwerkanlagen bleiben im Eigentum des Anbieters und der Kunde muss nicht in den Aufbau einer eigenen Infrastruktur investieren. Das Unternehmen zahlt also nur dann mehr für seine IT, wenn das Geschäft brummt.

Insbesondere für kleine und mit-telständische Unternehmen ist das Utility Computing somit eine at-traktive Alternative. Hohe Anfor-derungen beim Risikomanagement, Sparzwänge oder auch die Schwie-rigkeit, hochkarätige IT-Fachkräfte anzuwerben, führen dazu, dass viele Unternehmer nicht in eigene Server investieren wollen. Managed Ser-vices dagegen bietet ihnen dabei nur eine mittlere Lösung zwischen Make and Buy: Hier vergibt der Kunde nur die Pflege seines Rechen-zentrums und Netzwerks an einen externen Anbieter, womit er sich

immerhin die Aufrechterhaltung ei-ner großen und teuren hausinternen IT-Abteilung erspart.

Analysten sprechen dem Markt für Utility Computing daher ein großes Potenzial zu: Anfang 2007 lagerte zwar erst knapp jedes dritte deutsche Unternehmen Manage-ment oder Betrieb der IT-Infra-struktur aus, wie eine Umfrage des Zentrums für Europäische Wirt-schaftsforschung (ZEW) unter 4300 Firmen ergab. Laut Beratungshaus Capgemini halten jedoch 63 Pro-zent der IT-Verantwortlichen das Konzept des Utility Computing für sinnvoll. Eine gemeinsame Studie von BITKOM und Roland Berger Strategy Consultants prophezeit dem deutschen Markt für Utility Computing im Jahr 2010 denn auch ein Umsatzvolumen von rund 4,4 Milliarden Euro, was einem durch-schnittlichen jährlichen Wachstum von 38 Prozent entspricht. Im Jahr 2005 betrug der Umsatz gerade ein-mal 0,9 Milliarden Euro.

Doch wer sich vom Outsourcing erhofft, seine ungelösten Probleme an Dritte abgeben zu können, hat den Misserfolg schon fast program-miert. Nach Best-Practice-Erfah-rungen des Marktforschungs- und Beratungsunternehmens Experton Group führte die Buy-Entscheidung dann bei über 75 Prozent der Fälle lediglich dazu, dass der Auftragge-ber seine Probleme, und nicht deren Lösungen, zurückbekam.

Der Umstieg „on demand“ ist also kein kurzfristiges Allheilmit-tel. Wer sich für Utility Computing entscheidet, sollte dies laut BIT-KOM-Studie aus einer langfristigen Perspektive heraus tun. Oft ist zuvor eine technologische und organisato-rische Straffung im Unternehmen nötig. Auch sollte die konkrete Ge-staltung der Verträge wohl überlegt sein. Denn jede Dienstleistung, die nicht von Anfang an klar definiert wurde, muss später womöglich teuer nachgekauft werden.

Heute kennen die Verträge je-doch häufig nur ein Ziel: die Ver-fügbarkeit. Eine Auslagerung des IT-Betriebs bedeutet aber nicht automatisch eine sinnvolle Integra-tion der IT in die Geschäftsprozesse, geschweige denn einer Auslagerung des Problems der IT-Sicherheit. Als Eigentümer der Daten bleibt stets das Unternehmen selbst auch ver-antwortlich für ihre Sicherheit. Der-zeit zeichnet sich angesichts dieser Schwierigkeiten auch bereits ein Pa-radigmenwechsel zum „Next Gene-ration Outsourcing“ ab: Interessierte Unternehmen erwarten von ihren Outsourcing-Anbietern inzwischen auch schon einmal, dass diese Ge-schäftsprozesse gestalten können und in innovativen Partnerschaften Verantwortung übernehmen – mit der Hoffnung auf noch mehr Flexi-bilität und Effizienz.

www.tds.de

outsourcing & utility Computing

flexibilität und effizienz aus der datenleitungViele Unternehmen leisten sich eine Menge Leerlauf in ihrer IT-Infrastruktur. Mit Utility Computing können sie Rechenleistung und Speicherkapazität auslagern und durch die flexible Dosierung Kosten sparen.

die info ag sieht sich als Pionier im Bereich der mit-telständischen outsourcing-anbieter. Was genau macht ihr angebot denn für den Kunden so besonders?Viele Outsourcing-Anbieter

schauen bei ihren Kunden bislang nur darauf, dass die IT-Systeme funktionieren. Aber was passiert, wenn ein System zwar funktioniert, uns aber falsche Daten liefert? Mit unserem neuen Modell, dem Pro-cess Driven Outsourcing, schauen wir bei unseren Kunden tiefer in die spezifischen anwendungsü-bergreifenden Geschäftsprozesse

hinein und können schneller auf aufkommende Probleme reagieren. Der Kunde kann also bei uns nicht nur seine IT-Systeme auslagern, er kann auch einzelne Anwendungen inhaltlich betreuen lassen.

und wie funktioniert das?Wir definieren gemeinsam mit

unserem Kunden zunächst die Top Ten seiner vitalen Geschäftspro-zesse und entwickeln Kennzahlen, mit denen wir die Qualitäten dieser Abläufe zeitnah messen können. Das ist wichtig, denn ein Supply-Chain-Prozess läuft kontinuierlich, rund um die Uhr ab, deswegen

sollte man ihm auch kontinuierlich den Puls fühlen. Schließlich kön-nen logistische Prozesse bei einem Unternehmen nur dann reibungslos funktionieren, wenn jeder einzelne Prozess fehlerfrei abgeschlossen wird.

und wie fühlen sie den ge-schäftsprozessen den Puls?Ganz einfach: Wir bestimmen

für jeden Geschäftsprozess einen Prozess-Manager, der den Ablauf, für den er zuständig ist, im Detail kennt. Weichen die gelieferten Da-ten einmal beträchtlich von den er-warteten Werten ab, erzeugt unser

Business Activity Monitoring auto-matisch eine Warnung. Der Prozess Manager muss dann prüfen, ob auf der Seite der IT eine Störung vor-liegt, oder ob bei einem Kunden zum Beispiel plötzlich die Zahl der Verkäufe eingebrochen ist. Aber unabhängig davon, was der Grund ist: Unser Prozess-Manager kann sofort reagieren und so potenzielle Schäden begrenzen.

aber reagieren die unter-nehmen nicht misstrauisch, wenn sie ihnen so tief in die vitalen geschäftsprozesse schauen wollen?

De facto sind die kritischen Pro-zesse ja häufig schon jetzt in frem-den Händen, weil die IT ausgela-gert wurde. Nur bis jetzt wussten die Anbieter nicht, was die Systeme inhaltlich leisten. Für die Unter-nehmen macht die stärkere Vernet-zung also kaum einen Unterschied – außer dass die neue Qualität der Service-Leistungen dem Kunden zu mehr Stabilität und Transparenz bei den vitalen Geschäftsprozessen führt.

Stefan Freyer vertritt im vorstand der inFo ag die Bereiche outsour-

cing, Consulting und innovation

Fokus-interview: inFo ag

„supply-Chain-Prozessen sollte man kontinuierlich den Puls fühlen“

Page 13: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur 1�

Interview mit Winfried Holz, Vorstandsvorsitzender der TDS AG & Geschäftsführer von Fu-jitsu Services Deutschland

Wo liegen die aktuellen trends im it-outsourcing? Die Entwicklung geht zuneh-

mend hin zu kleineren Vertragsvo-lumen und kürzeren Laufzeiten von Outsourcing-Verträgen. Zudem for-dern Kunden vermehrt, dass sich die so genannten Service Level Agree-

ments – also die vertraglichen Ver-einbarungen zur Service-Qualität – weniger an technischen Kenngrö-ßen, sondern an ihren individuellen Geschäftsprozessen orientieren. Mit einer Lösung für die Überwachung und Kontrolle von Services auf Ge-schäftsprozess-Ebene ist TDS hier übrigens Vorreiter. Derzeit ist auch für viele Unternehmen der Wech-sel auf die aktuelle SAP-Version ein Anlass, den SAP-Betrieb an einen externen Dienstleister auszulagern.

Welche Vorteile bringt it-outsourcing den Kunden?Die Gründe für das Auslagern

von IT und IT-Dienstleistungen sind vielfältig: Kostensenkung und -transparenz sind sicherlich nur ein Aspekt. Für das Outsourcing spricht auch die Expertise des Dienstleis-ters. Zum Beispiel, wenn ein Mit-telständler auf SAP umsteigt und intern kein SAP-Know-how vor-

handen ist. Oder wenn es gilt, den unterbrechungsfreien Betrieb sowie hohe Sicherheitsanforderungen zu gewährleisten. Speziell Mittelständ-ler profitieren dadurch von Dien-sten, die sie selbst mit vertretbarem Aufwand nicht leisten könnten – und haben dadurch Vorteile im Wettbewerb.

Wann verlaufen outsour-cing-Projekte erfolgreich?Voraussetzung für die erfolg-

reiche Umsetzung sind transparente Strukturen, IT-Prozesse und Kosten. Denn nur so können die Aufgaben des Dienstleisters klar definiert wer-den. Da sich die Anforderungen des Kunden jedoch erfahrungsgemäß im Laufe der Zeit verändern, sind flexible Verträge ein entscheidender Erfolgsfaktor. Zum Erfolg eines Pro-jektes trägt ferner der flexible Bezug von Dienstleistungen je nach Bedarf und zu festen Preisen bei. Eine im-

mense Bedeutung kommt außerdem den „weichen“ Faktoren zu – gerade im Mittelstand. Gefragt sind ein vertrauensvolles Miteinander und ein Kommunizieren auf „gleicher Augenhöhe“. Eine nicht zu unter-schätzende Rolle spielen zudem der direkte Draht zum Dienstleister sowie kurze Entscheidungswege. Werden diese Aspekte bei der Kon-zeption des Projektes und der Wahl des Dienstleisters ignoriert, kann es zu Schwierigkeiten kommen.

Wie positioniert sich die tds ag im markt für it-outsour-cing?TDS ist von Haus aus auf den

Mittelstand fokussiert und verfügt hier über langjährige Erfahrung im IT-Outsourcing, insbesondere dem SAP-Betrieb. Die hohe Mit-telstandskompetenz ist sicher ei-ner unserer Erfolgsfaktoren. Denn gerade beim Outsourcing wissen

kleine und mittlere Unternehmen bei einem Dienstleister zu schätzen, dass er ihre Anforderungen exakt kennt und ebenso wie sie selbst auf übersichtliche Strukturen Wert legt. TDS erbringt seine Leistungen aus Deutschland heraus. So profitie-ren unsere Kunden von einem Part-ner, der ihre Sprache spricht, ihre Mentalität versteht sowie ihre spe-zifischen Herausforderungen und Rahmenbedingungen genau kennt. Allerdings ist auch bei mittelstän-dischen Firmen die Globalisierung längst angekommen: Sie vertreiben nicht nur ihre Waren weltweit, son-dern sind in wichtigen Zielmärkten häufiger auch mit einer eigenen Pro-duktion vor Ort. Über unseren Mut-terkonzern Fujitsu Services können wir solche Kunden nun auch opti-mal bei ihrer weltweiten Expansion begleiten – mit der für sie besten Kombination aus lokalen und glo-balen Komponenten.

interview tdS

„hohe mittelstandskompetenz ist erfolgsfaktor“

Mobile anwendungen

Vernetzte techniker sind effizienterUnternehmen statten ihre Mitarbeiter mit mobilen Endgeräten aus, aber nur die wenigsten passen ihre Geschäftsprozesse an die neuen Möglichkeiten an. Dabei können die Abläufe erheblich verbessert und beschleunigt werden.

Von MIChaeL Gneuss

Außendienstmitarbeiter sind oft 80 Prozent ihrer Arbeitszeit unter-wegs. Darunter leiden viele Abläufe. Die Zentrale weiß nicht immer, wo sich die Kollegen befinden. Zudem werden Daten oder Dokumente erst nach Tagen weiter bearbeitet, wenn der Mitarbeiter wieder ins Büro kommt.

Die Ausstattung mit mobilen Endgeräten verspricht Besserung. Beispielsweise über PDAs können vor Ort Arbeitsfortschritte fest-gehalten und Daten für die Rech-nungsstellung abgeschickt werden.

Key Pousttchi, Leiter der Ar-beitsgruppe Mobile Commerce am Lehrstuhl für Wirtschaftsinfor-matik und Systems Engineering der Universität Augsburg, sieht vor allem die schnellere Rechnungsstel-lung als Vorteil, der den Unterneh-men die schnelle Amortisation der Investition ermöglicht. Die meisten Industrieunternehmen sind von sol-chen Erfolgen aber noch weit ent-fernt. „Die Firmen beschäftigen sich in der Regel noch damit, wie die BeschäftigTen mobil ihre E-Mails empfangen können, nur die wenigs-ten integrieren die mobilen Mitar-beiter in ihre Geschäftsprozesse“, sagt Pousttchi. Seiner Ansicht nach

können die mobil integrierten Ge-schäftsprozesse in jedem Industri-eunternehmen helfen, die Prozesse zu verbessern und zu beschleunigen. „Jedes Unternehmen mit Außen-dienstmitarbeitern oder einer Mobi-lität in den Geschäftsprozessen kann durch den Einsatz von IT spürbare Kosteneinsparungen realisieren“, ist Pousttchi überzeugt. „Und die Mobilität der Geschäftsprozesse beginnt schon, wenn Paletten sich bewegen.“

Mitarbeiter, aber auch Geräte wie Fahr- oder Werkzeuge und Artikel wie Waren oder Materialien werden nach Überzeugung von Pousttchi in den modernen Betrieben der Zu-

kunft über mobile Endgeräte oder RFID-Chips mit der zentralen Un-ternehmens-IT regelmäßig kommu-nizieren und Daten austauschen; in vielen Fällen auch vollautomatisch als Kommunikation zwischen zwei Maschinen.

Auf der letzten Konferenz MCTA (Mobile Commerce Technologien und Anwendungen) in Augsburg, einem Branchentreff der Mo-bile-Beauftragten der deutschen Wirtschaft, ist nach Ansicht von Pousttchi zutage getreten, welche Branchen die Vorreiter sein können: Energie, Facility Management und IT-Services.

In diesen Branchen sieht er ein be-sonders hohes Einsparpotenzial. Im Bereich technischer Kundendienst können ersten Erfahrungen zufolge sechs Prozent der Kosten für Ser-vice-Techniker eingespart werden. Besonders hohe Effizienzgewinne erwartet der Augsburger aber in der Baubranche und bei den Automaten-aufstellern. „Da sind sogar 20 Pro-zent realistisch“, so Pousttchi.

Nach Erfahrungen von IT-Dienstleistern besteht aber noch immer viel Unwissenheit und auch großes Misstrauen gegenüber der Mobilisierung von Geschäftspro-zessen. Viele trauen den kleinen Endgeräten nicht zu, komplexe Ge-

gastbeitrag pironet ndH

mobilität braucht sicherheit

Unternehmen dürfen bei der mobilen Anbindung ihrer Mit-arbeiter die IT-Sicherheit nicht aus den Augen verlieren.

Ob in Außendienst, Projekt-leitung oder Geschäftsführung – immer mehr Mitarbeiter haben über Notebook, PDA oder andere Endgeräte Zugriff auf die Unter-nehmens-IT. So komfortabel und effizient dies ist - mit der Mobi-lität steigt auch die Zahl der an-greifbaren Schnittstellen und das Bedrohungspotenzial.

Das Problem gerade im Mittel-stand: IT-Sicherheit ist ein extrem komplexes und dynamisches Ge-biet mit vielen Spezialbereichen. Sie betrifft alle IT-Komponenten und -Dienste und muss bei laufend veränderten Rahmenbedingungen kontinuierlich optimiert werden. Hinzu kommen juristische Fragen und zu berücksichtigende Stan-dards.

Dass sich viele Firmen hier

überfordert fühlen, ist unver-meidbar. Ein Ausweg: Spezielle Managed Security und Outsour-cing-Dienstleister wie Pironet NDH, die sich ganzheitlich um das Thema Sicherheit kümmern und neben ihrem Know how auch ein sicheres Unternehmensnetz so-wie den Applikationsbetrieb und die Datenspeicherung in einem professionellen Rechenzentrum bereitstellen können. Einige Soft-ware-as-a-Service Modelle folgen diesem Ansatz bereits und sind schon „ab Werk“ nicht nur für den orts- und zeitunabhängigen Zugriff konzipiert, sondern auch mit speziellen Sicherheitsvorkeh-rungen ausgestattet. Gerade für Mittelständler eine ideale Lösung, da sie sich über die Online-Nut-zung weder um das Thema Sicher-heit noch um den Betrieb und die Wartung ihrer IT selber kümmern müssen!

Felix Höger, vorstand pironet ndH

schäftsprozesse abbilden zu können. Die Ansprüche an die Software-Ergonomie seien daher viel höher als bei der Unternehmenssoftware. Mit Zahlen lassen sich die Kunden allerdings überzeugen: Die Kosten für die Bearbeitung eines Belegs las-sen sich mit Hilfe von mobilen Ge-schäftsprozessen von zwei Euro auf 15 Cent reduzieren.

Die Marktanalysten von Frost & Sullivan erwarten schon aufgrund der stark steigenden Zahl der so-genannten „Mobile Worker“ einen

Boom bei den mobilen Unterneh-menslösungen. Schon heute seien die Hälfte aller Arbeitnehmer in Nordamerika den mobilen Arbei-tern zuzuordnen. Von 642 Millio-nen Dollar in 2005 werde der Markt für mobile Unternehmenslösungen in Nordamerika infolgedessen bis 2012 auf 7,4 Milliarden Dollar an-wachsen. Ganz besonders werden nach Ansicht von Frost & Sullivan die Serviceanbieter von Vertriebs-informationssystemen von diesem Boom profitieren.

Page 14: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur1�

Die Nachfrage nach umwelt-freundlichen Produkten und Lö-sungen für den IT-Bereich nimmt zu. „Insbesondere in den letzten zwei bis drei Monaten ist die Nach-frage deutlich gestiegen“, so Thomas Tauer, Director Site und Facilities Services bei IBM. „Vor einem Jahr hatten die Kunden noch geringes

Interesse.“ Inzwischen sei Energieef-fizienz jedoch ein Riesenthema in der Branche – auch wenn auf Kun-denseite noch nicht alle das Problem im Detail erkannt hätten. Das liege auch daran, dass etwa die Betrei-ber von Rechenzentren häufig ihre Stromkosten in der Zusammenset-zung nicht kennen.

Die IT-Branche hat das Thema Energieeffizienz als Chance erkannt und mit Initiativen darauf reagiert.

Im Mai stellte beispielsweise IBM ihr „Big Green“-Programm vor: Pro Jahr soll eine Milliarde Dollar in effizientere IT-Systeme inves-tiert werden, etwa durch verstärkte Grundlagenforschung und die Ent-wicklung umweltschonender Hard-ware-Technologie. 850 Mitarbeiter kümmern sich weltweit speziell um das Thema Energieeffizienz, zudem haben IBM-Kunden Zugriff auf Best-Practice-Beispiele des Unter-nehmens.

IBM selbst senkte ihren CO2-Ausstoß von 1990 bis 2005 um 40 %. „Durch bessere CPUs, zum Beispiel bei einigen System-p-Ser-vern, kann man heute die doppelte Rechenleistung bei gleichem Strom-verbrauch wie beim Vorgängermo-dell erzielen“, erklärt Tauer. „Gene-relles Ziel von IBM ist es, in ihren Rechenzentren bis 2010 die dop-pelte Rechenleistung im Vergleich zum heutigen Status bei gleichem Stromverbrauch zu erreichen.“ Auch

andere Betreiber von Rechenzen-tren müssen handeln, weil sie sonst Probleme bekommen. „Über 80 % der Rechenzentren wurden vor dem Jahr 2000 geplant und werden den steigenden Strombedarf bald nicht mehr decken können.“

Einsparpotenziale gibt es noch genug. Zwar ist der Neubau eines Rechenzentrums auf dem aktu-ellsten Stand immer die optimale Lösung. Doch oft kann man schon durch kostengünstige Maßnahmen – etwa durch die Verbesserung der Luftströme in der bestehenden An-lage – 15 bis 20 % der Energie ein-sparen.

Durch Konsolidierung mehrerer Rechenzentrumsstandorte auf eine geringere Gesamtanzahl wird die Effizienz ebenfalls gesteigert. Da-nach kann durch Virtualisierung die Auslastung der verbliebenen Server gesteigert werden. Beispiel IBM: 3900 Linux-Server in unternehmens-eigenen Rechenzentren wurden

durch 33 Großrechner System z er-setzt. „Der Energiebedarf sank auf nur noch 15 % im Vergleich zur vor-herigen Konfiguration“, so Tauer.

Optimierte Kühlsysteme senken ebenfalls die Energiekosten, denn – so eine Faustregel – für jeden „Hardware-Dollar“ werden heute 50

Cent für Strom und Kühlung aus-gegeben. Hier helfen beispielsweise wassergekühlte Rack-Rücktüren mit Wärmetauschern für einen sparsamen Betrieb der Server. Und

weil das wahre Ausmaß des Energie-verbrauchs den Betreibern oft nicht im Detail bekannt ist, schaffen neue Programme mehr Transparenz: Mit der IBM-Software „Power Execu-tive“ kann man den Stromverbrauch genau messen und seinen Verlauf analysieren. Insgesamt können

durch solche Maßnahmen bis zu 50 % der Energie eingespart werden, wenn das Rechenzentrum zuvor noch nicht nach neuestem Stand op-timiert war.

Branchenreport iBM

großes einsparpotenzial bei rechenzentrenIBM investiert in den Umweltschutz und verbessert seine Energieeffizienz. Von den Erfahrungen können auch die Kunden des Unternehmens profitieren.

Von ChrIsTIan BuCK

Auch der gewissenhafteste Ad-ministrator ist keine Garantie für einen allzeit reibungslosen Betrieb der Unternehmens-IT. Was also tun, wenn der Ernstfall eingetreten ist und wertvolle Daten vernichtet oder beschädigt wurden? Wenn beispielsweise die Buchhaltung der letzten zehn Jahre oder die gesamte E-Mail-Korrespondenz mit Kunden und Lieferanten verschwunden ist?

Dann schlägt die Stunde des „Disaster Recovery“, also der – zu-mindest teilweisen – Wiederher-stellung der Systeme. Jetzt gilt es, so schnell wie möglich wieder handlungsfähig zu werden, um die Ausfallzeit so kurz wie möglich zu halten. In der Fachsprache heißt die se Zeitspanne „Recovery Time Objective“.

Insbesondere bei kleinen und mittelständischen Unternehmen be-steht auf diesem Gebiet noch großer Verbesserungsbedarf: In einer Stu-die aus dem Jahr 2006 gaben bei-spielsweise 20 Prozent der befragten

Unternehmen an, dass sie bis zu 24 Stunden brauchen, bis Daten und Speichersysteme wiederhergestellt sind. 29 Prozent schätzen die benö-tigte Zeit auf vier bis zwölf Stunden, und nur 23 Prozent rechnen mit einer Wiederherstellung innerhalb von vier Stunden.

Dabei sind praktikable Lösungen auch für KMUs erschwinglich. Wer etwa seinen persönlichen Computer im Ernstfall schnell wieder lauffähig machen will, kann auf Programme zurückgreifen, die ein komplettes Abbild („Image“) der Computerfest-platte auf einem Backup-Datenträ-ger – meist eine externe Festplatte – erstellen. Selbst wenn die Com-puterfestplatte komplett zerstört wird, sind Daten und Programme in kurzer Zeit auf eine Ersatz-Fest-platte aufgespielt, und der PC läuft wieder, als sei nichts geschehen.

Für komplette Firmennetzwerke gibt es ebenfalls Lösungen. So kann man zum Beispiel Datenbanken und Arbeitsdateien ständig mit einem Zeitversatz auf einem zwei-

ten Computersystem „spiegeln“. Bei einem Problem mit dem primären IT-System kann der Administrator das Spiegelsystem aktivieren. Die Anbieter solcher Lösungen verspre-chen Wiederanlaufzeiten von weni-gen Minuten.

Ein weiteres Stichwort lautet SAN (Storage Area Network). Das sind Speichernetzwerke, mit denen man zum Beispiel in einem Rechen-zentrum den Pfad vom Server zum Speicher redundant auslegt – denn wenn diese Verbindung ausfällt, hat das meist katastrophale Aus-wirkungen: Es führt zu korrupten Datenbanken, und es kann Tage dauern, bis diese wieder hergestellt sind.

FAN (File Area Network) ist ein Konzept für Datenbestände mit vielen einzelnen Dateien. Es erlaubt eine transparente Datenmigration, ohne dass eine „Downtime“, also eine Unterbrechung des Betriebes, auftritt. Das ist gerade beim Disas-ter Recovery wichtig: Ein Backup einzuspielen kann Stunden dauern, bei FANs greift die IT automatisch

auf eine Kopie zurück, ohne dass der Nutzer es merkt.

Noch schlimmer ist es, wenn nach einem Brand oder einer Natur-katastrophe die gesamte technische Infrastruktur ausfällt oder eine Epi-demie den Großteil der Mitarbeiter außer Gefecht setzt. Denn nach der Meinung von Experten liegt die Überlebensdauer von Unternehmen bei einem solchen Totalausfall zwi-schen 2,5 und 5,5 Tagen. Wer nicht rechtzeitig vorsorgt, hat also nur ge-ringe Chancen, seinen Geschäftsbe-trieb innerhalb dieser kurzen Frist wieder zum Laufen zu bringen oder wenigstens einen Notbetrieb aufzu-bauen.

Wer dieses Schicksal vermeiden will, muss sich rechtzeitig auch mit dem Thema Kontinuitätsma-nagement (Business Continuity Management) befassen. Nach Ein-schätzung des Business Continuity Instituts (BCI) haben in Deutsch-land allerdings nur zehn Prozent der Großunternehmen ein echtes Kon-tinuitätsmanagement aufgebaut. Im Mittelstand sieht es noch dra-

matischer aus: Hier sind es gar nur Einzelfälle, die über Notfallpläne verfügen. Ausgangspunkt eines Kontinuitätsplanes ist die Samm-lung der kritischen Faktoren, auf de-ren Grundlage dann Strategien und Maßnahmen entwickelt werden. Dabei ist es wichtig, die Risiken be-züglich ihrer Eintrittswahrschein-lichkeit und der möglichen Auswir-kungen realitätsnah einzuschätzen. Davon ausgehend muss dann ein Notfallplan entwickelt werden, der die Aufgaben beschreibt, die wäh-rend und nach einem Krisenfall er-griffen werden müssen.

Das kann zwar einige Monate dauern und auch etwas kosten, ist aber keineswegs nur ein teurer Lu-xus: Denn zu den Sorgfaltspflichten eines ordentlichen und gewissen-haften Kaufmanns zählt seit dem Inkrafttreten des Gesetzes zur Kon-trolle und Transparenz im Unter-nehmensbereich (KonTraG) auch die Verpflichtung, ein Überwa-chungssystem zur Früherkennung existenzgefährdender Entwicklun-gen einzurichten.

disaster recovery

Vorsorge ist lebenswichtigSchon ein kurzzeitiger Ausfall der Unternehmens-IT kann schwerwiegende Folgen haben. Darum sind Datensicherung und Notfall-planung heute ein Muss für das Management.

energieeffizienzein riesenthema.

Bis zu 50% energiekönneneingespart werden

Page 15: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur 1�

green it

megathema umweltschutzComputer und Rechenzentren verbrauchen riesige Mengen an Energie, Tendenz steigend. So kann es nicht weitergehen – darum setzt die Branche auf mehr Effizienz beim Stromverbrauch.

kraftwerken aufgebaut, um Stromkosten zu sparen.

Ein generell gesenkter Stromverbrauch in der Zukunft ist das Ziel der Industrie: In den beiden Initiativen „The Green Grid“ und „Climate Savers Computing“ haben sich die IT-Branchengrößen – darunter Microsoft, Intel, Hewlett-Packard und IBM – zusam-mengeschlossen, um die Energieeffizienz von Computern und Rechenzentren zu verbessern. Denn heute verplempert zum Beispiel ein PC noch rund die Hälfte der Energie, die er ver-braucht.

Aber schon in den heute betriebenen An-lagen schlummern noch erhebliche Einspar-

potenziale. So kann man beispielsweise durch „Virtualisierung“ auf einem einzigen Com-puter mehrere virtuelle Server laufen lassen. Dadurch kann die Auslastung der Geräte von derzeit durchschnittlich zehn bis 15 % auf über 40 % steigen – was wiederum den Stromverbrauch senkt. Intelligente Software kann die Auslastung der Anlage überwachen und einzelne Server nach Bedarf an- und wie-der abschalten. In vielen Rechenzentren sind zudem die Luftströme für die Kühlung nicht optimal ausgelegt, weshalb unnötig viel Ener-gie in die Klimaanlage gesteckt werden muss.

Mehr Energieeffizienz soll auch ein Schwer-punktthema der nächsten CeBIT sein. „Green IT ist der Megatrend auf der Messe“, so Ernst

Raue von der Deutschen Messe Hannover. In drei Bausteinen – dem „Green IT-Village“, dem „Green IT-Guide“ sowie einem besonde-ren Kongressprogramm – werde das Thema behandelt. Der „Green IT Guide“ soll einen Überblick über die zentralen Fragestellung

des Klimaschutzes im IT-Bereich geben und die wichtigsten Lösungsansätze der einzel-nen Unternehmen vorstellen. „Der Green IT-Guide wird das erste zentrale Nachschlage-werk sein, das einen umfassenden Überblick zu dem Thema gibt“, so Raue.

sie bieten „umweltgerechte Pro-duktgestaltung“ an – was bedeutet das?In der Entwicklungsphase der Produkte

bedeutet das, maximierte Ressourcen-wiedergewinnung durch Recycling sowie minimierte Umweltauswirkungen durch die Materialwahl zu garantieren. Umwelt-gerechte Produktentwicklung steigert die Effizienz der Produkte, da die Materialviel-falt reduziert und die Ressourceneffizienz gesteigert werden. Das wirkt sich direkt in den Bilanzen der Hersteller aus. Zudem werden parallel dazu auch umweltrechtliche Anforderungen geprüft.

Was heißt das in der Praxis für Pro-dukte aus dem it-Bereich?Mit unserem Softwaretool ProdTect®

bieten wir eine innovative Lösung für die umweltgerechte Gestaltung von IT-Pro-dukten. Damit kann man die Geräte künf-tig besser recyclen und durch alternative Energiekonzepte ihren Stromverbrauch senken. Wir haben zum Beispiel eine ka-bellose „Öko-Maus“ entwickelt, die keine Batterie mehr braucht, sondern ihre Energie über Doppelschichtkondensatoren bezieht. Die IT-Hersteller sind sehr an umweltori-entierten Konzepten interessiert, Hewlett-Packard zum Beispiel hat sich sehr positiv über ProdTect geäußert.

Werden die Produkte teurer, wenn man sie umweltgerecht entwirft?Nein. Denn die IT-Industrie muss ja oh-

nehin die Kosten für das Recycling ihrer Produkte tragen, was letztlich deren Preis erhöht. Durch die umweltgerechte Gestal-tung sinken diese Recycling-Kosten aber, was am Ende auch dem Verbraucher nützt. Generell gilt: Je kurzlebiger die Produkte sind, desto schneller ist der Return on In-vest erreicht. Der Zusatzaufwand während der Produktentwicklung ist marginal, die Wirkung hingegen ganz erheblich.

www.kerp.at

Fokus-interview KErp

„umweltgerechte Produktentwicklung steigert die effizienz“Carsten Eichert, Partner bei der KERP Engineering GmbH in Lüneburg, registriert wachsendes Interesse der IT-Hersteller an Umweltkonzepten

Von ChrIsTIan BuCK

Kein Schornstein, aus dem dunkler Qualm in den Himmel steigt, und nur das sanfte Rau-schen des Lüfters zeigt an, dass in der Kiste gerade jede Menge Energie verbraucht wird – auf den ersten Blick sind Computer eine absolut saubere Sache. Auf den zweiten Blick sieht die Sache indes ganz anders aus: Die ra-pide wachsende Informationstechnologie ent-wickelt sich nämlich zum Klimakiller – rund zwei % der weltweiten CO2-Emmissionen, so schätzen die Marktforscher von Gartner, ge-hen auf das Konto von Computern, Handys oder Druckern. Eingerechnet sind dabei der Energieverbrauch während des Betriebs und die Klimabelastung durch Design, Produk-tion und Vertrieb der Geräte. Damit belaste die Informations- und Telekommunikations-technologie (ICT) die Umwelt ähnlich stark wie der globale Luftverkehr.

Beispiel Deutschland: Rund 50.000 Re-chenzentren gibt es hierzulande, die jährlich rund neun Milliarden Kilowattstunden Strom verbrauchen und dadurch schätzungsweise 5,6 Millionen Tonnen CO2 in die Atmosphäre blasen – Tendenz steigend. Neben dem Scha-den für die Umwelt belasten die Rechenzent-ren auch die Budgets der Unternehmen, deren

jährliche Stromkosten auf 610 Millionen Euro geschätzt werden. Auch hier gilt: Tendenz steigend. Dabei verbrauchen die Rechner aber nur rund die Hälfte der Energie – riesige Men-gen an Strom müssen zusätzlich in die Küh-lung der heißlaufenden IT-Anlagen gesteckt werden.

Mittlerweile hat die IT-Branche das Thema Umweltschutz für sich entdeckt und propa-giert darum die „Grüne IT“ (Green IT). So be-treibt zum Beispiel der Frankfurter Internet-dienstleister Internic sein Rechenzentrum mit 25.000 Servern seit diesem Jahr komplett mit Ökostrom von Greenpeace energy, der über-wiegend aus Wasser- und Windkraft gewon-nen wird – ganz ohne Atomkraft und Kohle. Ab Januar 2008 gesellt sich Strato, Europas zweitgrößter Webhoster, dazu. Dann wird der komplette Strombedarf von der NaturEnergie AG in Grenzach-Wyhlen geliefert, die aus-schließlich mit Wasserkraft arbeitet – bislang lieferte die EnBW die Energie für die Strato-Rechenzentren.

Einen anderen Ansatz für Klima schonende Informationstechnologie untersucht derzeit T-Systems. Seit Ende Juli testet das Unterneh-men eine mit Biogas betriebene Brennstoff-zelle für den Einsatz in Rechenzentren. „Wir wollen herausfinden, wie eine Brennstoffzelle im Alltagsbetrieb arbeitet“, so Firmensprecher Albert Hold. Derzeit versorgt die umwelt-

freundliche Energiequelle nur ein einziges Rechenzentrum in München mit Strom und Kühlung. Langfristiges Ziel ist es, ein autar-kes Rechenzentrum zu entwickeln, das von der öffentlichen Stromversorgung unabhängig und umweltfreundlich ist. Auch international kommt sauberer Strom immer mehr in Mode: Microsoft, Google und Yahoo haben einige ihrer Rechenzentren in der Nähe von Wasser-

Klimakillerinformations-technologie

saubererstromimmer mehr

inmode

ClimatesaversComputing

Page 16: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur1�

gastbeitrag: pironet ndH

morgendämmerung nach unternehmenskaufÜbernahme und Fusionen haben weit reichende Folgen – auch auf die Informationstechnologie der betrof-fenen Unternehmen. Eine nutzungsabhängige ITK-Infrastruktur als kostenflexible Outsourcing-Lösung bietet die Chance, Ressourcen und Bedarf optimal zu synchronisieren.

Von ChrIsTIan BuCK

Sprach- und Datenkommuni-kation wachsen immer stärker zu-sammen. So nutzen zum Beispiel inzwischen zahlreiche Kunden das Telefonieren über das Internet (VoIP, von Voice over IP), bei dem die Sprachdaten als kleine Datenpa-kete durchs Netz reisen – genauso wie E-Mails oder die Inhalte von Webseiten. Die technische Grund-lage für diese Entwicklung ist das Internet Protocol (IP), die allgegen-wärtige „Sprache“ des Internets. IP ist ein bewährter Standard, und für die Anbieter neuer Services ist es eine offene Plattform als Basis für neue Anwendungen.

Auch bei den derzeit viel disku-tierten „Next Generation Networks“ (NGN) spielt IP eine bedeutende Rolle. Im Mobilfunkbereich geht es den Anbietern darum, höhere Da-tenraten und – darauf aufbauend – neue Premium-Dienste anzubieten. So könnten die sinkenden Einnah-men aus den reinen Sprachverbin-dungen kompensiert werden. Zu-dem verspricht die Einführung einer gemeinsamen technischen Basis für das gesamte Netz Einsparungen bei

den Betriebs- und Investitionskos-ten.

Bereits jetzt bieten UMTS und insbesondere seine Erweiterungen HSDPA (High Speed Downlink Pa-cket Access, für den Empfang von Daten) und HSUPA (High Speed Uplink Packet Access, für den Ver-sand von Daten) hohe Geschwindig-keiten: In der Praxis kommt man im

Moment auf maximal 7,2 Megabit pro Sekunde (Empfang) beziehungs-weise 1,5 Megabit pro Sekunde (Versand), Tendenz weiter steigend. Zudem verringern die beiden Ver-fahren die Antwortzeiten des Netzes – man muss also nicht mehr so lange auf seine Informationen warten. So wird der Mobilfunk langsam zur Alternative zum DSL-Anschluss.

Aber der Hunger nach Bandbreite kann damit nicht auf Dauer gestillt werden, denn in Zukunft sollen weitere Dienste aufs Mobiltelefon kommen, die hohe Datenraten ver-langen – zum Beispiel Handy-TV oder Videokonferenzen. Um solche

Multimedia-Services anbieten zu können, müssen also noch schnel-lere Verbindungen her: In spätes-tens fünf Jahren, so Vodafone-CTO Hartmut Kremling, werde es bereits neue drahtlose Netze mit Band-breiten von bis zu 100 Megabit pro Sekunde geben. Nach der dritten Mobilfunkgeneration (3G) bricht dann das Zeitalter der vierten Gene-ration (4G) an. Dann soll es für den Kunden keinen Unterschied mehr machen, ob er gerade drahtlos oder über einen Kabelanschluss kommu-niziert.

Im Rahmen des EASY-C-Pro-jekts (Enablers for Ambient Services und Systems) wird ein solches Netz in Dresden und Berlin getestet. EASY-C soll Schlüsseltechnologien für künftige mobile Internet-An-wendungen wie Videostreaming, Online-Multimediaspiele und lokale Informationsdienste untersuchen und wird vom Bundesministerium für Bildung und Forschung geför-dert. Ziel ist dabei nicht nur eine höhere Geschwindigkeit, sondern auch die effizientere Nutzung der Funkfrequenzen. Ein wesentlicher Bestandteil dafür ist die Mehran-tennentechnologie MIMO (Multi-

ple Input Multiple Output), mit der eine deutliche Erhöhung der Daten-rate und damit der Netzkapazität erreicht wird.

Das Projekt beruht auf LTE (Long Term Evolution), einer Weiterent-wicklung von UMTS und HSDPA und HSUPA. Die Testnetze von EASY werden Mitte 2008 an zehn Standorten von T-Mobile und Voda-fone in der Dresdner Innenstadt und in einem kleinen Teilnetz in Berlin in Betrieb genommen. Auch China arbeitet an der Mobil-Zukunft: In Shanghai ist Anfang des Jahres das erste Testnetz mit Mobilfunk-technologie der vierten Generation

in Betrieb gegangen. Eingesetzt wird dabei eine in China selbst ent-wickelte Technologie.

Neben LTE spielt auch Wimax (Worldwide Interoperability for Microwave Access) eine Rolle bei der Entwicklung von 4G-Stan-dards. Mit dieser Technik werden schon heute für stationäre Kunden schnelle Internet-Zugänge via Funk

realisiert, und die Mobil-Variante „Mobile Wimax“ könnte künftig auch Mobiltelefonen höhere Daten-raten bescheren.

„Beide Technologien, LTE und Mobile Wimax, werden in der nächsten Mobilfunkgeneration eine Rolle spielen“, so Rainer Fechner, Technikvorstand von Alcatel-Lucent Deutschland. „Dabei geht der Trend dahin, eine gemeinsame Hardware-Plattform für unterschiedliche Mobilfunktechnologien wie GSM, UMTS, Wimax und zukünftig LTE zu verwenden.“

Eine Mobilfunkbasisstation könne dann per Software angewie-sen werden, in der einen oder an-deren Technologie zu funken. „Wir meinen, dass beide Technologien sich parallel verbreiten werden, denn jede für sich bietet Vorteile in gewis-sen Situationen“, so Fechner. Mobile Wimax könne für unterversorgte, ländliche Räume eine Alternative zum DSL-Anschluss werden. „LTE mit seinen gegenüber UMTS deut-lich höheren Datenraten lässt sich in mehr Frequenzbändern realisieren und kann somit den Durchbruch für mobile Multimediadienste brin-gen.“

next generation networks

die vierte generationNoch schneller, noch vielfältiger – so sollen die Mobilfunknetze der nächsten Generation sein. In wenigen Jahren werden damit neue mobile Multimedia-Anwendungen möglich.

Von Jens WardenBaCh

Die Welt ist im M&A Fieber. Die Marktforscher von Gartner er-warten, dass bis 2010 zwischen 70 und 90 Prozent ihrer Kunden eine Fusion oder eine Übernahme bevor-steht. Demnach sind in der Unter-nehmenslandschaft noch turbulente Zeiten zu erwarten. Und da Zeit nach wie vor Geld bedeutet, gilt immer die Vorgabe, Zusammen-schlüsse schnellstmöglich über die Bühne zu bringen, wobei die neuen Geschäftsstrukturen voll funktions- und wettbewerbsfähig sein müssen.

In diesem Prozess kommt einer modernen IT eine Schlüsselrolle zu. Sie muss für eine optimale Un-terstützung aller Geschäftsanforde-rungen sorgen. Dafür eignet sich die Schaffung einer zentralisierten und ausgelagerten ITK-Infrastruktur

in besonderer Weise. Nach diesem Prinzip verfuhr auch die Spar Han-dels GmbH nach Übernahme der früheren Spar Handels AG durch die Edeka-Gruppe 2005. Schlüs-selfertige Lösungen und spezielle „Best Practices“ des ITK-Outsour-cing-Dienstleisters Pironet NDH machten es möglich, das Restruktu-rierungsprojekt in kürzester Zeit zu realisieren und mit einem Downsi-zing der vorhandenen IT-Ressourcen zu verbinden.

Spar entschied sich dafür, die IT-Leistungen im sogenannten Software as a Service (SaaS)-Modus einzukaufen. Dabei nutzen Unter-nehmen IT-Ressourcen flexibel nach ihrem jeweils aktuellen Bedarf und

rechnen sie pro Nutzer, Applikation und Monat ab. Die Anwendungen von Spar werden im Pironet NDH Rechenzentrum entsprechend be-reitgestellt, betrieben und konti-nuierlich überwacht. Dazu zählen die betriebswirtschaftliche ERP-Lösung, mit der vor allem Waren-wirtschaft und Finanzbuchhaltung arbeiten, aber auch klassische Büro-Software wie Office und Exchange. Alle Nutzer greifen mit einem Browser auf ihre Anwendungen zu, die als Online-Dienst über eine ebenfalls von Pironet NDH bereit-gestellte, sichere Leitung auf ihre Arbeitsplatz-Rechner gelangen.

Immer häufiger befinden sich mittelständische Unternehmen in einer vergleichbaren Situation wie Spar. „Wir sehen SaaS als perfekte Lösung in allen Fällen, bei denen Fusionen oder Umstrukturierungen

die Erstellung einer neuen ITK-In-frastruktur in kürzester Zeit erfor-derlich machen“, so Khaled Chaar, verantwortlicher Direktor bei Piro-net NDH.

Guido Woltmann, Leiter Infor-mationsverarbeitung der Spar Han-dels GmbH, benennt denn auch zwei wesentliche Gründe für seine Entscheidung: „Erstens verfügte Pironet NDH über vorgefertigte Lösungen, die es ermöglichten, das komplexe Konsolidierungsprojekt in nur drei Monaten zu realisieren. Zweitens ist das Preis-Leistungs-Verhältnis beim Betrieb der Systeme in unseren Augen hervorragend.“

Mit dem Wechsel auf ein Out-sourcing-Modell spart das Unter-nehmen nicht nur Investitionsauf-wände und laufende Kosten, sondern hat gleichzeitig die Weichen für eine erfolgreiche Zukunft gestellt.

software as aserViCe

effizienterenutZung

hohegeschwindigkeiten

Page 17: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

1�

humax iCord hd – das multimedia talent

• hdtV empfangen und aufzeichnen• Bis zu 500 gB festplatte für filme, fotos und mP3• Zukunftssicher dank Common interface

fernsehen und multimedia so einfach wie noch nieFernsehen so echt wie das Leben, Bilder so scharf wie das natürliche sehen und Musikgenuss pur – dafür steht das digitale Multimedia-Talent iCord hd von huMaX. empfangen sie hochauflösendes und herkömmliches satellitenfernsehen und zeichnen sie atemberau-bende hdTV-Filmhighlights direkt auf die bis zu �00 GB große Fest-platte auf, während sie ein anderes Programm sehen. nutzen sie die riesige Vielfalt an Möglichkeiten des integrierten Multimedia-Players. Per usB-schnittstelle übertragen sie Ihre Fotosammlung, das MP�-archiv sowie eigene Videofilme direkt von der digitalkamera oder externen Festplatte auf den iCord hd.

dank hdMI- und optischem digitalausgang wird Fernsehen zum raumfüllenden hörerlebnis. zwei zukunftssichere Common Interface schnittstellen eröffnen die Möglichkeit, verschlüsselte Programme zu empfangen. alle Funktionen bleiben dabei kinderleicht bedienbar. dafür sorgen eine intuitive Inbetriebnahme und Menüführung, ein hervorragender elektronischer Programmführer (ePG) von tvtv mit 1� Tagen Programmvorschau, eine vorprogrammierte senderliste und die universalfernbedienung.

Zubehörpreisgekröntes

Sie„Haben

?

auch

D I E P A S S E N D E L Ö S U N G

67 Bestnoten und 9 Siegerprädikate in renommierten Tests fürComputer-Foto-Video-TV-SAT-Heimkino-Zubehör von Hama.

Allein 2007.Uns wundert das nicht ...

hama!„Klar,

““

www.hama.de

xx01_255x183 20.11.2007 13:20 Uhr Seite 1

Von ChrIsTIan BuCK

Es gibt verschiedene Wege, di-gitale Fotos auf Papier zu bannen: Mit dem heimischen Tintenstrahl-drucker und speziellem Fotopapier gelingen schon passable Ausdrucke. Etwas besser wird es, wenn man ei-nen „Fotodrucker“ besitzt, der oft mehr Farbpatronen hat und bessere Hauttöne produziert. Speziell für Fotos sind auch Thermosublimati-onsdrucker ausgelegt, für die man allerdings Spezialpapier braucht.

Immer öfter kann man beim Aus-druck ganz auf den PC verzichten: Dank der „PictBridge“-Technologie reden Kamera und Drucker – zum Beispiel über eine USB-Verbindung – direkt miteinander.

Eine weitere Option ist die Be-stellung von Abzügen über das Internet. Neben klassischen Pa-pierbildern bieten die Dienstleister auch das Bedrucken von Tassen oder T-Shirts und vieles mehr an. Und mit einem „Web-Album“ kann man Freunden und Familie auch online seine Bilder zeigen. Aktuelle Preis-übersichten liefern Websites wie www.bessere-bilder.de oder www.digi-vergl.de.

Wer die Schnappschüsse aus sei-ner Digitalkamera an die Wand hängen oder auf dem Schreibtisch aufstellen will, braucht inzwischen überhaupt keine Papierausdrucke mehr: Digitale Bilderrahmen sind die praktische Alternative. Die Idee dahinter ist genial einfach: Man kombiniert ein flaches Display, ei-nen Rahmen und etwas Elektronik – jetzt muss man nur noch seine di-

gitalen Bilder aus der Kamera in den Speicher des digitalen Bilderrah-mens laden (zum Beispiel per USB-Kabel oder über einen Einschub für Speicherkarten), und schon kann man die Aufnahmen bewundern, auf Wunsch sogar als fortlaufende Diashow. Wie viele Bilder der elek-tronische Rahmen schluckt, hängt von seiner Speicherkapazität ab.

Die Qualität der Darstellung hängt von der Größe des Displays ab – weit verbreitet sind derzeit Geräte mit sieben oder acht Zoll. Damit keine schwarzen Ränder entstehen, sollte die Anzeige ein Seitenver-hältnis von vier zu drei haben. Gute Qualität erzielt man zum Beispiel mit einem Display, das 800 mal 600 Bildpunkte hat. Die digitalen Bil-derrahmen gibt es in verschiedenen Designs – von kühlem Kunststoff bis hin zum Holzimitat. Sie lassen sich an die Wand hängen oder frei aufstellen, meist kann man sie auch auf Hochformat umschalten. Aller-dings brauchen die Geräte Strom, entweder aus einem Akku oder einem Netzteil.

digitale Fotografie

Pixel für die WandOb klassischer Papierabzug, Web-Album im Internet oder digitaler Bilderrah-men: Es gibt zahlreiche Wege, seine Digitalfotos zur Geltung zu bringen.

extra digitale unterhaltungselektronik

Page 18: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

1�

Von heIKe deTTMar

Geht es nach Vorstellungen der Unterhaltungsbranche, gehört das Wort Flimmerkiste bald einge-mottet. High Definition Television (HDTV) heißt der Trend, der mit gestochen scharfen Bildern, satten Farben und enormer Tiefenschärfe aufwartet. Der größte technische Vorteil des neuen digitalen TV-Standards ist die hohe Auflösung. Dadurch können mehr Details im Filmmaterial abgetastet werden. Feinheiten, die im bislang üblichen PAL-Standard verlorengehen, wer-den wieder sichtbar.

Um die volle Schärfe denn auch goutieren zu können, braucht der Zuschauer allerdings zuerst einen digitalen HDTV-Receiver, der die neuen Übertragungsstandards über-haupt beherrscht. Zusätzlich bedarf es eines entsprechenden TV-Ge-räts. Zwei Etiketten haben sich hier mittlerweile etabliert: Die „HD-ready-Fernseher“, die ihre Bilder aus mindestens 720 Zeilen zusammen-setzen, und „Full HD-Fernseher“. Letztere sind Geräte, die tatsächlich

alle 1080 Zeilen der vollen HD-TV-Auflösung wiedergeben können. Zum Vergleich: Der herkömmliche Fernseher verwendet 575 Zeilen.

Dementsprechend mutiert das superscharfe High-Definition-Bild zum Hoffnungsträger der Bran-che. Die Gesellschaft für Unter-haltungs- und Kommunikations-elektronik geht davon aus, dass die Fernseher der neuen Generation in den kommenden Jahren zum wich-tigsten Wachstumsmotor der Un-terhaltungselektronik werden. Sie prognostiziert einen Anstieg der Verkaufszahlen in Deutschland um knapp 70 Prozent auf 3,5 Millionen Stück noch in diesem Jahr.

Auch von Senderseite wird der neue digitale TV-Standard mit großen Tönen begrüßt. Für Pre-miere-Chef Georg Kofler beispiels-weise ist HDTV die wichtigste TV-Innovation seit der Einführung des Farbfernsehens.

Doch noch folgen den Worten nur wenige Taten. So bietet Pro Sieben Sat.1 zwar seit Oktober 2005 zwei HD-Kanäle. Allerdings werden erst eine Handvoll Sendungen, zu denen

einige, wenige Hollywood-Block-buster oder amerikanische Erfolgs-serien wie Lost oder Greys Anatomy gehören, in echter HD-Qualität gezeigt. Selbst in der Primetime machte dies nach Senderangaben nur 15 Prozent aus. Der überwie-gende Teil der Ausstrahlungen ist vom PAL-Signal hochskaliertes Ma-terial. Künftig jedoch soll der neue digitale Standard auch bei eigenpro-duzierten Formaten mehr und mehr zum Tragen kommen.

Der Bezahlsender Premiere ist da schon weiter, hat es aber auch mit der Refinanzierung der benö-tigten neuen Produktions- und Sendetechnik leichter. Er bietet seit 2005 regelmäßig hochauflösende Programme – gegen Zusatzgebühr. Über 80.000 Abonnenten können die Münchner mittlerweile für Pre-miere HD, ihr Angebot aus Filmen, Serien und Sport verbuchen. Das mag auch daran liegen, dass Pre-miere seit Mitte August pro Spiel-

tag drei Live-Spiele aus der Fuß-ball-Bundesliga in HD-Qualität zeigt. Über dieses Angebot hinaus werden dem Zuschauer mit dem zusätzlichen Kanal Discovery HD hochaufgelöste Dokumentarfilme gereicht.

Richtig viel bekommt der Zu-schauer, der über einen HDTV-tauglichen Fernseher und den ent-sprechenden Receiver verfügt, dem Augenschein nach also noch nicht geboten. Gerade auch, wer auf ge-stochen scharfe Bilder in ARD und ZDF wartet, braucht Geduld. Die beiden Öffentlich-Rechtlichen ha-ben sich mittlerweile darauf ver-ständigt, den offiziellen HDTV-Start auf das Jahr 2010 zu legen. Mit dem Beginn der Olympischen Winterspiele 2010 in Vancouver soll der Startschuss fallen. Bei RTL will man sich indes gar nicht erst auf einen Zeitplan festlegen. Eine HDTV-Verbreitung bei einer Min-destreichweite, die unterhalb von zehn Prozent liege, sei im Free-TV ökonomisch nicht zu rechtfertigen.

Aber mit den Zahlen ist das so eine Sache. Keiner weiß Genaues.

Im Gegensatz zu den Standard-Ausstrahlungen gibt es keine GfK-Reichweitenmessung: Also ist man auf Schätzungen der Geräteherstel-ler angewiesen. Und die besagen, dass von den 2,5 Millionen Haus-halten, die sich geeignete Fernseher zugelegt haben, nur rund 10 bis 15 Prozent auch die entsprechenden Empfangsgeräte haben, um sich tatsächlich HDTV-Bilder in ihr Wohnzimmer zu holen.

Aber hinter den Kulissen bringen sich die meisten TV-Sender, privat wie öffentlich-rechtlich, langsam in Position. So gut wie alle sind dabei, ihre Technik sukzessive auf HD-Equipment umzustellen. Ins-besondere Produktionen wie hoch-wertige Dokumentationen oder Fernsehfilme, bei denen von einem langen Verwertungs- und Wieder-holungswert ausgegangen wird, werden teilweise bereits in HD-Technologie produziert – auch wenn die Ausstrahlung noch nicht in HD erfolgt. Denn wer seine Produkte auch international anbieten will, für den führt einfach kein Weg mehr an HDTV vorbei.

Hdtv heißt die Zukunft beim Fernsehen

gestochen scharfDie Geräte für das hochauflösende TV gibt es bereits, Programme sind aber noch rar.

Die Zukunft des Fernsehens ist digital. In Deutschland ersetzt bis zum Jahr 2010 das digitale TV komplett seinen analogen Vorgän-ger. Spätestens dann kommt neue Bewegung in die Fernsehlandschaft. Schon heute spricht vieles für den TV-Empfang via schnellem DSL-Anschluss. Keine Infrastruktur hat sich für den Transport von digitalen Inhalten und als Plattform für Inter-

aktion so bewährt wie das Internet. IPTV – das Fernsehen über DSL – ist startklar.

In der Debatte über den optima-len Übertragungsweg für digitale TV-Programme werden dem Fern-sehen via DSL sehr gute Perspek-tiven eingeräumt. Das hängt nicht zuletzt mit der Entwicklung des DSL-Marktes zusammen. Denn seit dem Vermarktungsbeginn des schnellen Internets vor acht Jahren ist in Deutschland die Nachfrage nach DSL-Anschlüssen regelrecht explodiert: Nutzten 2006 mehr als 14 Millionen Haushalte einen DSL-Zugang, so werden es Ende dieses Jahres schon 18 Millionen sein.

Nicht nur die DSL-Kundenzahlen steigen rasant. Auch die Nachfrage nach immer höheren Kapazitäten ist ungebrochen. Zwei-Megabit-

Anschlüsse sind heute Standard. Und der Trend geht in Richtung von sechs oder noch mehr Megabit pro Sekunde. Neue und interaktive Internet-Anwendungen, die unter dem Stichwort „Web 2.0“ firmieren, treiben den Bandbreitenbedarf nach oben.

Wer Fernsehprogramme via DSL sehen möchte, benötigt heute Ka-pazitäten ab sechs Megabit pro Se-kunde. Arcor hat sich darauf vorbe-reitet und seine eigene Infrastruktur komplett mit der Technik ADSL2+ ausgerüstet, die Bandbreiten von bis zu 16 Megabit pro Sekunde ermöglicht. Mehr als 550 Städte in Deutschland sind aktuell mit die-sem schnellen Netz erschlossen.

IPTV ist keineswegs nur eine Alternative zu den etablierten Emp-fangswegen. Denn bei IPTV ist im

Gegensatz zur klassischen Übertra-gung die Zahl der Sender nahezu unbegrenzt. So bietet DSL-TV ne-ben der Versorgung mit allen frei empfangbaren Sendern zahlreiche zusätzliche Pay-TV-Kanäle und eine Videothek mit Filmen, die unab-hängig vom laufenden Programm abgerufen werden können.

Arcor hat sein DSL-Fernsehen Ende Oktober in mehr als 50 deut-schen Städten und Gemeinden ge-startet. „Arcor-Digital TV“ bietet mehr als 50 Free-TV-Sender, über 60 Bezahlkanäle und eine um-fangreiche Videothek. Gleichzeitig ermöglicht das Unternehmen bei ausgewählten Programmen über eine Timeshift-Funktion zeitlich versetztes Fernsehen, das den Kun-den mehr Souveränität bei der Ge-staltung des TV-Abends gibt. Ein

elektronischer Programmführer mit einfacher Navigation sorgt für den Überblick. In Zukunft wird das Fernsehen mit IPTV durch weitere interaktive Anwendungen noch komfortabler.

Nach einer Studie der Marktfor-scher von „Goldmedia“ soll die Zahl der IPTV-Kunden in Deutschland bis zum Jahr 2012 bereits auf 2,5 Millionen anwachsen. Das wird erst der Anfang einer Entwicklung sein, die die Fersehlandschaft nachhaltig zu ändern vermag. IPTV lässt heute erst erahnen, was Fernsehen in den kommenden Jahren ausmachen wird. Kein Zweifel: Die Zukunft ist digital.

Harald Stöber, vorsitzender des vorstands der arcor ag & Co. Kg

www.arcor.de

gastbeitrag: digitale tv-Übertragung kann die Fernsehlandschaft grundlegend verändern

iPtV – das fernsehen der Zukunft

ard & ZdfhdtV-start2010

extra digitale unterhaltungselektronik

Page 19: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur 1�

Hans-Ullrich Sinner, Direk-tor Marketing und Vertrieb der HUMAX Digital GmbH, wirft einen Blick in die Zukunft des digitalen Fernsehens.

humax begleitete die entwicklung des digitalen fernsehens von anfang an. Welche rolle spielt hdtV aus ihrer sicht?HDTV ist unserer Meinung nach

eines der entscheidenden Elemente. Der wichtigste Mehrwert des digi-talen Fernsehens, neben der neuen Programmvielfalt, liegt im schär-feren Fernsehbild. Und HDTV setzt hier schlichtweg neue Maßstäbe. Es hat etwas länger gedauert, doch jetzt gibt es attraktive Programme, hoch-wertige Flachbildfernseher und die entsprechenden Digitalreceiver. So können die Zuschauer in die hoch-auflösende Welt von HDTV starten.

Mit dem PR-HD1000 hat HUMAX als erster Hersteller den Empfang von HDTV über Satellit und Kabel überhaupt ermöglicht. Diesen Weg gehen wir seither konsequent weiter, mit neuen spannenden HDTV-Pro-dukten.

humax setzt mit dem iCord hd ein absolutes highlight im Bereich hdtV. Worauf kann sich der Zuschauer freuen?Auf ein gestochen scharfes Fern-

sehbild, satten Raumklang und grenzenlose multimediale Mög-lichkeiten. Neben dem Empfang von HDTV kann der iCord HD bis zu vier weitere Kanäle zeitgleich in hochauflösender Qualität auf die Festplatte aufzeichnen. Zahl-reiche Anschlüsse sorgen für die perfekte Integration in die vorhan-dene Heimkinolösung. Per USB-

Schnittstelle gelangen sogar Fotos, Videos oder MP3-Musikstücke auf den iCord HD und sind dort dank einfacher übersichtlicher Menüs be-quem abrufbar.

Zum fernsehen braucht man einen fernseher. Was tut humax in diesem Bereich?Grundsätzlich verfolgen wir mit

unseren LCD-Fernsehern das glei-che Ziel: Zukunftssichere, einfach bedienbare Produkte, die Spaß machen. Daher verwenden wir un-ser digitales Wissen aus der Recei-ver-Entwicklung und integrieren die Empfangstechnik direkt in den Fernseher. Die Zuschauer brauchen nur ein Gerät und eine Fernbedie-nung, um digitales Fernsehen genie-ßen zu können.

Auch die iCord HD Technologie wird es als All-in-one-TV-Lösung geben.

Was bedeutet zukunftssicher bei humax?HUMAX-Geräte, ob Digital-

receiver oder LCD-TV, vereinen modernste Technologie, hochwer-tige Verarbeitung und einfache Be-dienung. Damit macht Fernsehen auch morgen noch Spaß. Für die vielfältigen neuen Möglichkeiten der digitalen Fernsehwelt spielt Fle-xibilität eine wichtige Rolle. Wir setzen daher in vielen Produkten auf Common Interface und die Un-terstützung etablierter Programm-plattformen. HUMAX liefert heute zum Beispiel für jede Kabelnetzre-gion in Deutschland passende Digi-talreceiver.

in jüngster Zeit ist von einer neuen satellitenplattform names entavio die rede. auch bei humax?Wir sehen in entavio die Zukunft

des digitalen Satellitenfernsehens in Deutschland. Darum empfehlen wir allen Zuschauern, sich die Mög-lichkeit des Empfangs von entavio

offenzuhalten und beim Kauf eines Receivers darauf zu achten. Die Ent-wicklung zeigt, dass immer mehr Premium-Inhalte als Abo-TV ver-schlüsselt angeboten werden, auch für HDTV ist das zu erwarten. Entavio bietet für immer mehr Pro-grammveranstalter eine offene sowie neutrale Verbreitungsplattform und HUMAX die komfortablen Emp-fangsgeräte.

www.humax-digital.de

interview Humax

„hdtV setzt schlichtweg neue maßstäbe“

Hand aufs Herz: Wissen Sie, wie teuer die gesprächsminute bei ih-rem Handy ist? nein? Sie sind nicht allein: „Mehr als zwei drittel der Handy-nutzer kennen ihren tarif nicht“, sagt oliver Wilps, geschäfts-führer der Firma dolphin telecom. „und nur weniger als zehn prozent der nutzer können ihren korrekten Minutenpreis nennen.“ Es wird immer schwieriger, die Übersicht zu behalten. der tarif-dschungel wuchert – mit mehr als 1000 Mobilfunktarifen. auch Flatrates können einen falschen Eindruck vermitteln. Wilps: „da werden viele posten zusätzlich berechnet – gespräche in fremde Mobilfunknetze, gespräche in das

ausland.“ am Monatsende staunen viele über unerwartet hohe Mobil-funkrechnungen. abhilfe bietet dolphin telecom mit einer kostenlosen Software für Handys. Sie sucht vollautomatisch für jedes gespräch eine günstigere verbindung. „least-Cost-routing“ heißt das verfahren, das im Fest-netz bereits bekannt ist. dolphin-geschäftsführer Wilps: „Wir ermög-lichen unseren Kunden gespräche unabhängig von ihrem provider. das ist so, als ob ich den lichtschal-ter betätige, und eine intelligente Software sucht immer nach einem günstigen Stromanbieter.“ deshalb ist sich Wilps sicher: „Mit unserer Software läuten wir die nächste

und vor allem verbraucherfreund-liche Entwicklungsstufe im Mobil-funk ein.“die Software überprüft vor jedem gespräch blitzschnell, ob der ei-gene provider oder dol-phin für das gespräch der günstigere anbie-ter ist. ist der provider zu teuer, leitet die Soft-ware das gespräch um, ohne dass der nutzer etwas dazutun muss. „Er telefoniert wie bis-her, nur deutlich günstiger.“ vor je-dem gespräch werden die Kosten angesagt.So geht´s: der interessent installiert

sich aus dem internet die für sein gerät passende Software. Es gibt

sie in verschiedenen Betriebssystem-versi-onen – für Handys mit Symbian (zum Beispiel nokia E-Serie und n-Serie) oder Windows Mobile. Bei einfachen geräten ist auch Java möglich.Spar-Beispiel ausland: Bei verbindungen zum Beispiel in die türkei oder nach russ-

land berechnen provider durchaus bis zu zwei oder drei Euro je Minute. das gleiche gespräch kostet bei dolphin 8,9 Cent. Zudem hilft die

Software, teure roaming-gebüh-ren für abgehende gespräche zu umgehen, wenn man im ausland mobil telefoniert.das Handy wird schlau. So schlau, dass kein vertragswechsel notwen-dig ist: der Mobiltelefonierer be-hält seine Handy-nummer, seinen tarif, seinen provider. abgerechnet wird per vorauszahlung über ein „prepaid“-Konto bei dolphin. So erhält der Kunde auch weiter eine rechnung seines providers für die gespräche, die er über ihn führt. Woran verdient dolphin telecom? Wilps: „dolphin verdient nur dann, wenn der Kunde etwas spart.“

www.go-dolphin.de

dolphin telecom

mobil noch günstiger telefonieren – selbst ins auslanddie nächste entwicklungsstufe im mobilfunkmarkt ist da: eine kostenlose handy-software der firma dolphin telecom senkt handy-Kosten „vollautomatisch“ – ein Vertragswechsel ist nicht notwendig.

Maik Emmermann, Vice Pre-sident Broadband + Television Services bei Unitymedia, sieht das TV-Kabel im Wettbewerb um Triple-Play-Kunden im Vor-teil gegenüber DSL. Der Grund: Durch maximale Bandbreiten von über fünf Gigabit pro Se-kunde können sich Kabel-Inter-netanbieter leisten, schneller und billiger zu sein als DSL.

Wer in deutschland an einen internetzugang denkt, denkt an dsl aber nicht an das tV-Kabel. ist es da nicht schwer, triple-Play-angebote im markt zu platzieren?

Das Fernsehkabel lag lange in der Hand der Deutschen Telekom; erst in den letzten Jahren greifen private Investitionen in den Aus-bau der Kabelnetze. Damit wächst auch der Wettbewerb zwischen Ka-bel und DSL. Inzwischen erkennt der Verbraucher die Vorteile von Kabel-Internet: Seit 2006 konnte Unitymedia in NRW und Hessen die Zahl seiner Internet-Kunden verdreifachen.

Welche Vorteile bietet das Kabel gegenüber dem satelliten, umts und dsl via telefon?Das TV-Kabel weist eine hohe

Verbindungssicherheit auf und ist unabhängig von Witterungseinflüs-sen. Das Einrichten ist sehr einfach. Viele nutzen ja auch schon Kabel-fernsehen und haben dann Telefo-nanschluss und Internetzugang aus der gleichen Hand. Mit Datenraten von bis zu fünf Gigabit pro Sekunde bietet das Unitymedia-Kabel ge-nügend Kapazität, um neben ana-logem TV die digitale TV-Vielfalt, Highspeed-Internet und Telefonie direkt über die Kabel-TV-Dose in die Haushalte zu transportieren. Wir bieten heute schon Internet-Anschlüsse bis zu 32 Megabit pro Sekunde an. Verbrauchertests ha-ben außerdem ergeben, dass die von DSL-Providern tatsächlich dem User zur Verfügung gestellten Down-load-Geschwindigkeiten deutlich unter den kommunizierten Leistun-gen lagen. Den Kabelnetzbetrei-

bern wurde in derselben Studie be-scheinigt, dass sie die angebotenen Download-Leistungen wesentlich zuverlässiger erbringen.

Will der Verbraucher triple Play angebote haben?Ja, eindeutig: Rund 80 Prozent

unserer Neukunden bestellen das Triple-Play-Komplettangebot aus dem TV-Kabel. Es ist bequemer, alles über einen Vertrag und einen Vertragspartner laufen lassen zu können. Und natürlich spielt auch der Preis eine Rolle. Unser derzeit beliebtestes Angebot kostet 30 Euro im Monat und beinhaltet einen Sechs-Megabit-Internetanschluss, eine Internet-Flatrate sowie einen Telefonanschluss inklusive Telefon-Flatrate ins deutsche Festnetz. Un-sere Kabel-TV-Kunden bekommen darüber hinaus den Einstieg in die

digitale TV-Welt mit über 70 TV-Programmen, das Freitagsspiel der Fußball Bundesliga sowie den dazu notwendigen Digital-Receiver kos-tenlos dazu.

Wie setzen sie sich von der Konkurrenz ab und welche strategie verfolgen sie da-bei, um sich zu behaupten?Wir sind der einzige Anbieter,

der Digital-TV, Highspeed-Internet und Telefonie integriert aus einer Hand im Kabel-TV anbietet und wollen in Zukunft weiterhin Triple Play vorantreiben. Wir investie-ren ständig in den Ausbau und die Qualität unserer Kabelnetze und sind schon jetzt der erfolgreichste Triple-Play-Anbieter in NRW und Hessen.

www.unitymedia.de

interview unitymedia

„das Kabel kann mehr“

anzeige

Page 20: itK infrastruKtur - doc.mediaplanet.comdoc.mediaplanet.com/all_projects/1560.pdf · Kombination einsetzen. Die Temp-lates durchlaufen bereits während der Entwicklung und zusätzlich

ITK Infrastruktur�0

HTC TOUCH HTC TOUCH DUAL

TOUCH oder Tasten

Sie haben die WahlWir sehen zwar gleich aus, in manchen Dingen sind wir aber grundverschieden. Einer von uns ist ein echter Touch-Typ. Der andere steht eher auf Tasten.

Auch ein Touch-Typ? Dann werden Sie den Touchscreen des HTC Touch lieben. Nicht ganz sicher? Dann entscheiden Sie sich am besten für das HTC Touch Dual™. Echte 3G Power und Geschwindigkeit – und jederzeit Zugriff auf eine vollwertige Tastatur.

Beide cool. Beide clever. Beide einzigartig.

www.htctouch.comKaufi nformationen unter www.stockists.htc.com

HTC_TC_GER_FAZ_255x371mm.indd 1 26/11/07 14:51:56