Manfred Kloiber: Der Flickenteppich in der Breitbandversorgung der Republik soll endlich geschlossen werden. Wie viele weiße Flecken ohne Breitbandzugang hat die Republik denn, Peter Welchering?
Peter Welchering: Das hängt davon ab, wie man denn breitbandige Internetzugänge definiert und welcher Marktstudie man glauben will. Die verschiedenen hier zuständigen Bundesministerien streiten sich zum Beispiel darüber, ob schon eine Übertragungsbandbreite von 384 Kilobit als breitbandig gilt oder erst eine Bandbreite von mehr als einem Megabit pro Sekunde. Nimmt man dann die 384 Kilobit in der Sekunde, dann haben wir natürlich weniger weiße Flecken auf der Karte des Breitbandatlas als bei einem Megabit pro Sekunde. Immerhin sind auch bei der Schmalspurlösung von 384 Kilobit noch gut 500.000 Bundesbürger ohne breitbandigen Internet-Anschluss. Nimmt man die 1-Megabit-Variante schnellt die Zahl auf bis zu fünf Millionen Deutsche ohne schnelles Internet hoch.
Kloiber: Nun hat die Kanzlerin bei ihrem Messerundgang ja in Aussicht gestellt, dass sich schon in den nächsten Monaten die Situation durch massive Investitionen erheblich verbessern werde. Was ist denn da geplant?
Welchering: Zum einen werden immer mehr Frequenzen, die bisher für die terrestrische Fernsehübertragung genutzt wurden, durch die Digitalisierung der TV-Übertragung frei. So hat das Kabinett in dieser Woche die Frequenzbereichszuweisungsplanverordnung beschlossen. Dadurch wird der Frequenzbereich zwischen 790 und 862 Megahertz frei und kann für breitbandiges Internet genutzt werden. Allerdings noch nicht sofort. Die Verordnung muss erst noch durch den Bundesrat. Das ist für den Mai geplant. Und hier gibt es in einigen Bundesländern wie Baden-Württemberg noch Diskussionsbedarf.
Kloiber: Was hatte die Kanzlerin noch an Breitbandprojekten im Messegepäck ?
Welchering: Ein Versprechen, nämlich dass die Bundesregierung die EU-Mittel für den Ausbau der Breitband-Infrastruktur jetzt nach heftiger Diskussion doch annehmen wird. Damit wird es unter Umständen sogar in diesem Jahr eine Milliarde Euro aus Brüssel für den Ausbau des schnellen Internet in Deutschland geben. Aus dem Konjunkturprogramm II legt die Regierung da dann noch 500 Millionen drauf. Und mit 1,5 Milliarden kann natürlich schon erheblich viel in Vermittlungsstellen, Funknetze oder Hauptverteiler investiert werden. Allerdings besteht bisher noch keine Übereinstimmung, wie die Breitband-Infrastruktur ausgebaut werden soll. Verbraucherministerin Ilse Aigner beispielsweise will bis zum Ende nächsten eine flächendeckende Breitbandversorgung in Deutschland durch den massiven Ausbau der VDSL-Anschlüsse hinbekommen. Aigners Vorgabe lautet, dass drei Viertel aller Haushalte bis Ende 2010 mit VDSL ausgestattet sein sollen. Im Finanzministerium hingegen wird auf Abteilungsleiterebene laut darüber nachgedacht, wie man den Ausbau beim Kabel-TV fördern kann. Die Kabelfernsehfirmen haben ja in den vergangenen Jahren viel Geld in den Ausbau ihrer Vermittlungsstellen gesteckt, um die Kabel-TV-Netze fürs so genannte Triple Play fit zu machen, also Fernsehen, Telefonie und Internet. Ein nicht geringer Teil dieses Ausbaus wurde und wird über Kabel-Anleihen finanziert. Doch mit der Finanzkrise ist diese Finanzierungsquelle weitgehend versiegt.
Kloiber: Wie sieht es mit dem UMTS-Nachfolgestandard Long Term Evolution aus?
Welchering: Über den wurde auf der CeBIT heftig diskutiert. Denn die Technologie Long Term Evolution würde ja Übertragungsraten von 100 Megabit pro Sekunde schaffen und dabei glatt das Glasfaser schlagen. Die Mobilfunkkunden in Deutschland werden darauf wohl noch etwas warten müssen. Denn über die Verwendung der digitalen Dividende, also der TV-Frequenzen zwischen 790 und 862 Megahertz, die freigegeben werden können, wenn der Bundesrat im Herbst zustimmt, wird zur Zeit eben auch noch diskutiert. Noch steht nicht fest, welche Frequenzbereiche an die Mobilfunkanbieter gehen. Und solange das nicht feststeht, wollen die sich in Deutschland in Sachen LTE erst gar nicht engagieren. Also hier droht mal wieder der Fall, dass eine Zukunftstechnologie verschlafen wird. Allerdings die UMTS-Erweiterung HSPA plus ist hier auf einem besseren Weg. Das hat sich auf dieser CeBIT ganz klar gezeigt. T-Mobile und O2 haben die ersten Ergebnisse ihrer Testversuche in Hannover präsentiert. Download-Raten von 28 Megabit pro Sekunde sind dabei gut erreicht worden. Vermutlich werden O2-Kunden im Großraum München HSPA plus ab diesem Herbst nutzen können. Das mobile breitbandige Internet entwickelt sich also auch nur in kleineren Schritten.
Kloiber: Richtig schlechte Stimmung kommt bei Administratoren und Sicherheitsexperten auf, wenn sie an Deutschland denken. Denn die kritischen Infrastrukturen wie Elektrizität, Telekommunikation oder Verkehr sind nur sehr unzulänglich gegen Fehler, Ausfall oder Manipulation geschützt. Das war Thema in der Infrastruktur Halle 8. Wo liegen die größten Probleme, Peter Welchering?
Welchering: Da gibt es quasi an jedem Stand in der Halle acht ein neues Problem. Das fängt mit den unzureichenden Testverfahren in der Softwareentwicklung an, geht über Defizite in der sogenannten Anforderungsanalyse und hört bei Angriffen auf die Schnittstellen der einzelnen Infrastruktursysteme noch längst nicht auf. Immer wieder – fast schon unisono – war in der Halle acht während der vergangenen Tage die Einschätzung zu hören, dass es hierzulande weder ausreichende Vorsorgemaßnahmen zur Sicherung kritischer Infrastrukturen gebe noch ausreichend durchdachte Krisenszenarien. Interessant ist, dass sich die Softwareindustrie hier durchaus selbst an die Brust schlägt und als Selbstverpflichtung ausgibt: Wir wollen beim sogenannten Requiremanagement, bei der Anforderungsanalyse also besser werden. Und das wird auch höchste Zeit. Denn da sind der Vergangenheit teilweise wirklich schlimme Fehler gemacht worden. Drei Forderungen dürften sehr rasch umgesetzt werden und in den Alltag der Softwareentwickler stärker Einzug halten als bisher. Erstens ist das eine standardisierte Anforderungsanalyse, die den größten anzunehmenden Unfall schon im Entwurfsmodell berücksichtigt. Komplexe Softwaresysteme müssen in der Lage sein, völlig unvorhergesehen Systemzustände abzufangen. Deshalb werden in die Entwurfsmodelle selbstlernende Strukturen eingezogen. Zweitens müssen auch Updates einer genauso strengen Anforderungsanalyse unterzogen werden. Das ist bisher häufig unterblieben. Und drittens müssen die Schnittstellen der Softwaresysteme besser geschützt werden. Denn die sind am anfälligsten.
Kloiber: Warum sind denn gerade die Schnittstellen so anfällig?
Welchering: Weil die einzelnen kritischen Infrastruktursysteme von den Entwicklern noch zu isoliert betrachtet werden. Diese Sichtweise hat auch der regierungsamtliche Plan zum Schutz kritischer Infrastruktur übernommen. Hier sind Schutzmaßnahmen und Absicherungstechnologien für Stromnetze, Bankensysteme, Telekommunikationsnetze oder Verkehrssteuerung erarbeitet worden. Das ist auch notwendig, und die einzelnen Maßnahmen sind sinnvoll. Aber gerade die Schnittstellen zwischen diesen Systemen, die sind nicht im Blick der Entwickler und der regierungsamtlichen Krisenmanager. Und das führt dann dazu, dass Störungen in einem System sich unkontrolliert auf andere Systeme auswirken, sich regelrecht fortpflanzen. Die Entwickler sprechen auch gern von einem Dominoeffekt. Wenn etwa eine Störung im Telekommunikationsnetz bewirkt, dass ein Abschaltbefehl an einen Hauptverteiler im Stromnetz nicht weitergegeben werden kann, führt das zu weitreichenden Störungen und zu Ausfällen im Stromnetz. Das hat zur Folge, dass den Bankensystemen der Saft ausgeht. Die Rechenzentren der Banken haben keinen Strom mehr, Geldautomaten fallen aus. Die Leute können nicht einmal mehr einkaufen gehen, weil Bargeld fehlt. Solche Dominoeffekte lassen sich nur vermeiden, wenn die Entwickler hier mit einer vernetzten Sichtweise an das Anforderungsprofil einzelner Softwareprodukte herangehen und sich immer sofort fragen, welche Auswirkungen bestimmte Systemzustände auf andere kritische Infrastrukturen haben.
Kloiber: Hier wird ja von der Politik mehr Überwachung, auch Systemüberwachung gefordert. Lassen sich damit kritische Infrastrukturen besser absichern?
Welchering: Ohne Überwachungssysteme und Frühwarnsysteme lässt sich die Stabilität von kritischen Infrastrukturen heutzutage nicht mehr sicher stellen. Deshalb ist der Ruf nach flächendeckenden Überwachungssystemen für kritische Infrastrukturen natürlich richtig. Aber wer durch Halle acht schlendert und sich die Entwicklungen der Unternehmen anschaut, die sich mit kritischen Infrastrukturen und deren Schutz beschäftigen, der sieht auch, dass diejenigen Schutzsysteme effizient arbeiten, die transparent bleiben. Eine wesentliche Voraussetzung für die Beherrschbarkeit von hochkomplexen Softwaresystemen ist die Übersichtlichkeit, ist die Transparenz. Und hier kann Software eben nur dann von Software überwacht werden, wenn die dahinterliegenden Prozesse sauber beschrieben werden. Die müssen transparent sein. Genauso transparent muss dann aber auch sein, wie die Überwachungssysteme Algorithmen mit den dahinter liegenden Prozessen vergleichen, um Abweichungen festzustellen und abfangen zu können. Gegenwärtig haben wir es aber in der Mehrzahl mit vollkommen intransparenten Überwachungssystemen bei den kritischen Infrastrukturen zu tun. Und das erhöht die Fehleranfälligkeit. Bleibt nur zu hoffen, dass die Regierungsbeamten, die für den Schutz kritischer Infrastrukturen zuständig sind, sich in Halle acht diese Anforderung an Transparenz haben erklären lassen.
Peter Welchering: Das hängt davon ab, wie man denn breitbandige Internetzugänge definiert und welcher Marktstudie man glauben will. Die verschiedenen hier zuständigen Bundesministerien streiten sich zum Beispiel darüber, ob schon eine Übertragungsbandbreite von 384 Kilobit als breitbandig gilt oder erst eine Bandbreite von mehr als einem Megabit pro Sekunde. Nimmt man dann die 384 Kilobit in der Sekunde, dann haben wir natürlich weniger weiße Flecken auf der Karte des Breitbandatlas als bei einem Megabit pro Sekunde. Immerhin sind auch bei der Schmalspurlösung von 384 Kilobit noch gut 500.000 Bundesbürger ohne breitbandigen Internet-Anschluss. Nimmt man die 1-Megabit-Variante schnellt die Zahl auf bis zu fünf Millionen Deutsche ohne schnelles Internet hoch.
Kloiber: Nun hat die Kanzlerin bei ihrem Messerundgang ja in Aussicht gestellt, dass sich schon in den nächsten Monaten die Situation durch massive Investitionen erheblich verbessern werde. Was ist denn da geplant?
Welchering: Zum einen werden immer mehr Frequenzen, die bisher für die terrestrische Fernsehübertragung genutzt wurden, durch die Digitalisierung der TV-Übertragung frei. So hat das Kabinett in dieser Woche die Frequenzbereichszuweisungsplanverordnung beschlossen. Dadurch wird der Frequenzbereich zwischen 790 und 862 Megahertz frei und kann für breitbandiges Internet genutzt werden. Allerdings noch nicht sofort. Die Verordnung muss erst noch durch den Bundesrat. Das ist für den Mai geplant. Und hier gibt es in einigen Bundesländern wie Baden-Württemberg noch Diskussionsbedarf.
Kloiber: Was hatte die Kanzlerin noch an Breitbandprojekten im Messegepäck ?
Welchering: Ein Versprechen, nämlich dass die Bundesregierung die EU-Mittel für den Ausbau der Breitband-Infrastruktur jetzt nach heftiger Diskussion doch annehmen wird. Damit wird es unter Umständen sogar in diesem Jahr eine Milliarde Euro aus Brüssel für den Ausbau des schnellen Internet in Deutschland geben. Aus dem Konjunkturprogramm II legt die Regierung da dann noch 500 Millionen drauf. Und mit 1,5 Milliarden kann natürlich schon erheblich viel in Vermittlungsstellen, Funknetze oder Hauptverteiler investiert werden. Allerdings besteht bisher noch keine Übereinstimmung, wie die Breitband-Infrastruktur ausgebaut werden soll. Verbraucherministerin Ilse Aigner beispielsweise will bis zum Ende nächsten eine flächendeckende Breitbandversorgung in Deutschland durch den massiven Ausbau der VDSL-Anschlüsse hinbekommen. Aigners Vorgabe lautet, dass drei Viertel aller Haushalte bis Ende 2010 mit VDSL ausgestattet sein sollen. Im Finanzministerium hingegen wird auf Abteilungsleiterebene laut darüber nachgedacht, wie man den Ausbau beim Kabel-TV fördern kann. Die Kabelfernsehfirmen haben ja in den vergangenen Jahren viel Geld in den Ausbau ihrer Vermittlungsstellen gesteckt, um die Kabel-TV-Netze fürs so genannte Triple Play fit zu machen, also Fernsehen, Telefonie und Internet. Ein nicht geringer Teil dieses Ausbaus wurde und wird über Kabel-Anleihen finanziert. Doch mit der Finanzkrise ist diese Finanzierungsquelle weitgehend versiegt.
Kloiber: Wie sieht es mit dem UMTS-Nachfolgestandard Long Term Evolution aus?
Welchering: Über den wurde auf der CeBIT heftig diskutiert. Denn die Technologie Long Term Evolution würde ja Übertragungsraten von 100 Megabit pro Sekunde schaffen und dabei glatt das Glasfaser schlagen. Die Mobilfunkkunden in Deutschland werden darauf wohl noch etwas warten müssen. Denn über die Verwendung der digitalen Dividende, also der TV-Frequenzen zwischen 790 und 862 Megahertz, die freigegeben werden können, wenn der Bundesrat im Herbst zustimmt, wird zur Zeit eben auch noch diskutiert. Noch steht nicht fest, welche Frequenzbereiche an die Mobilfunkanbieter gehen. Und solange das nicht feststeht, wollen die sich in Deutschland in Sachen LTE erst gar nicht engagieren. Also hier droht mal wieder der Fall, dass eine Zukunftstechnologie verschlafen wird. Allerdings die UMTS-Erweiterung HSPA plus ist hier auf einem besseren Weg. Das hat sich auf dieser CeBIT ganz klar gezeigt. T-Mobile und O2 haben die ersten Ergebnisse ihrer Testversuche in Hannover präsentiert. Download-Raten von 28 Megabit pro Sekunde sind dabei gut erreicht worden. Vermutlich werden O2-Kunden im Großraum München HSPA plus ab diesem Herbst nutzen können. Das mobile breitbandige Internet entwickelt sich also auch nur in kleineren Schritten.
Kloiber: Richtig schlechte Stimmung kommt bei Administratoren und Sicherheitsexperten auf, wenn sie an Deutschland denken. Denn die kritischen Infrastrukturen wie Elektrizität, Telekommunikation oder Verkehr sind nur sehr unzulänglich gegen Fehler, Ausfall oder Manipulation geschützt. Das war Thema in der Infrastruktur Halle 8. Wo liegen die größten Probleme, Peter Welchering?
Welchering: Da gibt es quasi an jedem Stand in der Halle acht ein neues Problem. Das fängt mit den unzureichenden Testverfahren in der Softwareentwicklung an, geht über Defizite in der sogenannten Anforderungsanalyse und hört bei Angriffen auf die Schnittstellen der einzelnen Infrastruktursysteme noch längst nicht auf. Immer wieder – fast schon unisono – war in der Halle acht während der vergangenen Tage die Einschätzung zu hören, dass es hierzulande weder ausreichende Vorsorgemaßnahmen zur Sicherung kritischer Infrastrukturen gebe noch ausreichend durchdachte Krisenszenarien. Interessant ist, dass sich die Softwareindustrie hier durchaus selbst an die Brust schlägt und als Selbstverpflichtung ausgibt: Wir wollen beim sogenannten Requiremanagement, bei der Anforderungsanalyse also besser werden. Und das wird auch höchste Zeit. Denn da sind der Vergangenheit teilweise wirklich schlimme Fehler gemacht worden. Drei Forderungen dürften sehr rasch umgesetzt werden und in den Alltag der Softwareentwickler stärker Einzug halten als bisher. Erstens ist das eine standardisierte Anforderungsanalyse, die den größten anzunehmenden Unfall schon im Entwurfsmodell berücksichtigt. Komplexe Softwaresysteme müssen in der Lage sein, völlig unvorhergesehen Systemzustände abzufangen. Deshalb werden in die Entwurfsmodelle selbstlernende Strukturen eingezogen. Zweitens müssen auch Updates einer genauso strengen Anforderungsanalyse unterzogen werden. Das ist bisher häufig unterblieben. Und drittens müssen die Schnittstellen der Softwaresysteme besser geschützt werden. Denn die sind am anfälligsten.
Kloiber: Warum sind denn gerade die Schnittstellen so anfällig?
Welchering: Weil die einzelnen kritischen Infrastruktursysteme von den Entwicklern noch zu isoliert betrachtet werden. Diese Sichtweise hat auch der regierungsamtliche Plan zum Schutz kritischer Infrastruktur übernommen. Hier sind Schutzmaßnahmen und Absicherungstechnologien für Stromnetze, Bankensysteme, Telekommunikationsnetze oder Verkehrssteuerung erarbeitet worden. Das ist auch notwendig, und die einzelnen Maßnahmen sind sinnvoll. Aber gerade die Schnittstellen zwischen diesen Systemen, die sind nicht im Blick der Entwickler und der regierungsamtlichen Krisenmanager. Und das führt dann dazu, dass Störungen in einem System sich unkontrolliert auf andere Systeme auswirken, sich regelrecht fortpflanzen. Die Entwickler sprechen auch gern von einem Dominoeffekt. Wenn etwa eine Störung im Telekommunikationsnetz bewirkt, dass ein Abschaltbefehl an einen Hauptverteiler im Stromnetz nicht weitergegeben werden kann, führt das zu weitreichenden Störungen und zu Ausfällen im Stromnetz. Das hat zur Folge, dass den Bankensystemen der Saft ausgeht. Die Rechenzentren der Banken haben keinen Strom mehr, Geldautomaten fallen aus. Die Leute können nicht einmal mehr einkaufen gehen, weil Bargeld fehlt. Solche Dominoeffekte lassen sich nur vermeiden, wenn die Entwickler hier mit einer vernetzten Sichtweise an das Anforderungsprofil einzelner Softwareprodukte herangehen und sich immer sofort fragen, welche Auswirkungen bestimmte Systemzustände auf andere kritische Infrastrukturen haben.
Kloiber: Hier wird ja von der Politik mehr Überwachung, auch Systemüberwachung gefordert. Lassen sich damit kritische Infrastrukturen besser absichern?
Welchering: Ohne Überwachungssysteme und Frühwarnsysteme lässt sich die Stabilität von kritischen Infrastrukturen heutzutage nicht mehr sicher stellen. Deshalb ist der Ruf nach flächendeckenden Überwachungssystemen für kritische Infrastrukturen natürlich richtig. Aber wer durch Halle acht schlendert und sich die Entwicklungen der Unternehmen anschaut, die sich mit kritischen Infrastrukturen und deren Schutz beschäftigen, der sieht auch, dass diejenigen Schutzsysteme effizient arbeiten, die transparent bleiben. Eine wesentliche Voraussetzung für die Beherrschbarkeit von hochkomplexen Softwaresystemen ist die Übersichtlichkeit, ist die Transparenz. Und hier kann Software eben nur dann von Software überwacht werden, wenn die dahinterliegenden Prozesse sauber beschrieben werden. Die müssen transparent sein. Genauso transparent muss dann aber auch sein, wie die Überwachungssysteme Algorithmen mit den dahinter liegenden Prozessen vergleichen, um Abweichungen festzustellen und abfangen zu können. Gegenwärtig haben wir es aber in der Mehrzahl mit vollkommen intransparenten Überwachungssystemen bei den kritischen Infrastrukturen zu tun. Und das erhöht die Fehleranfälligkeit. Bleibt nur zu hoffen, dass die Regierungsbeamten, die für den Schutz kritischer Infrastrukturen zuständig sind, sich in Halle acht diese Anforderung an Transparenz haben erklären lassen.