Seynsche: Herr Schönherr, Sie haben die Arbeit gelesen, ist sie so großspurig, wie es klingt?
Schönherr: Also mir haben die 220 Seiten Statistik schon Respekt eingeflößt. Ich kenne keine Studie, die umfassender ist. Ich weiß aber auch, dass einer der Autoren, nämlich Martin Hilbert von der Universität Südkalifornien, bei der UN im Bereich Informationstechnologie arbeitet und weiß, wie man spannende Themen auch gut pressemäßig aufbereitet. Ich denke, wir werden zum Beispiel in den nächsten Tagen öfter die Zahl 295 Trillionen hören. Vor vier Jahren war die Menschheit, so Martin Hilbert, in der Lage, 295 Exabyte an Daten speichern. Und er hat dann auch ein schönes Bild gefunden: Wenn man das auf CD-ROMs presst, ergibt es einen Stapel, der bis zum Mond und noch ein bisschen weiter drüber erreichen würde. Unglaublich.
Seynsche: Das ist ganz schön viel. War das früher weniger, oder...
Schönherr: Klar, ich meine, das wäre die triviale Aussage von so einer Studie.
Seynsche: Wenn man jetzt weiter darüber nachdenkt: Wie soll es denn dann weitergehen? Machen die auch Prognosen darüber, wie viel es denn bald ist? Sind das dann nicht CDs, sondern DVDs, die bis zum Mond gehen?
Schönherr: Genau, so könnte es dann weiterwachsen. Demnächst haben wir dann auch, wenn wir CDs abschaffen, und das alles auf DVDs pressen, wird das auch bis zum Mond gehen. Das Besondere an dieser Statistik - es gibt viele, die sich mit Datenmengen und Prozessorleistungen usw. Beschäftigen - das Besondere an dieser Arbeit von Hilbert und Lopez ist, dass sie Datenmengen gewichtet miteinander vergleichen. Und dazu sage ich jetzt mal ein Beispiel, was nicht so in dieser Arbeit vorkommt, aber es ganz plastisch macht: Angenommen, gestern hat jeder Mensch auf diesem Planeten durchschnittlich vier Bilder über das Internet verschickt, vor zehn Jahren aber nur eins. Dann könnte man sagen: die Übermittlung digitaler Fotos hat datenmäßig um den Faktor vier zugenommen. Das stimmt aber nicht, weil nämlich die Methoden, Bilder digital zu komprimieren, sich in den letzten zehn Jahren sich enorm verbessert haben. Und da könnte es ja sein, dass heute nur noch ein Bruchteil an Bilddaten verschickt wird, weil ein Bild nur noch den Bruchteil an Bits auf einer Festplatte einnimmt. Also, die Datenkompression hat einfach zugenommen.
Das Beispiel ist wie gesagt fiktiv und dient nur dazu, zu zeigen, dass die Datenkompression ein Stolperstein für die großen IT-Statistiken der Vergangenheit war. Und darin unterscheidet sich die jetzt veröffentlichte Arbeit. Wir haben es mit gewichteten Daten zu tun, und die Autoren weisen mit bedacht darauf hin, dass etwa bei der weltweiten Rechenleistung, also wie schnell Rechner rechnen, diese Gewichtung schwer fällt. Denn da gibt es auch eine Art von Kompression, die ist aber nicht so zu messen, wie bei Audio beispielsweise, MP3 sagt man Faktor 10 zum Beispiel. Bei der Rechenleistung kann man sagen: die Algorithmen von vor zehn Jahren, vor 20 Jahren waren schwerfälliger und nicht so elegant wie heute, und deswegen rechnet ein Rechner heute eine Sache genauso, viel leichter als er es damals ausgerechnet hat, weil die Algorithmen besser geworden sind.
Seynsche: Welche Themenbereiche der Digitalisierung deckt denn diese Studie ab?
Schönherr: Drei Themenbereiche: Nämlich die weltweit gespeicherten Daten, das ist also das, was im Jahr 2007 vor allen Dingen auf Festplatten gespeichert war, und diese 295 Exabyte, die bis zum Mond reichen. Der zweite Datensatz ist größer: Das sind die zwischen Menschen kommunizierten Byte, also das was hin und her geht zwischen uns Menschen. Da kann man noch eine Null dranhängen an das gespeicherte. Das heißt, es wurde vor vier Jahren etwa zehn mal mehr Daten herumgeschoben als abgespeichert. Und die dritte Statistik geht auf die Rechenleistung von PC, Spielekonsolen, Großrechnern und Handys ein. Diese stieg jährlich um 58 Prozent. Die Wachstumsrate von Kommunikation stieg dagegen um 28 Prozent. Die Speicherkapazität nur um 23 Prozent.
Seynsche: Die Studie deckt der Daten nur bis 2007 ab. Ist sie da nicht so langsam veraltet?
Schönherr: Ja. Das ist das große Problem dabei. Ich finde diese Studie hervorragend, und sie gibt viel Aufschluss auch über die Methodik, wie man solche Datensätze vergleicht, also OSZE... OECD-Daten mit UN-Daten zum Beispiel. Aber diese Studie ist in einer Zeit geboren, die sich so drastisch ändert, also Facebook und Co gab bis 2007 praktisch noch nicht in dieser Form. Und das hat die ganze Kommunikation völlig umgebügelt.
Schönherr: Also mir haben die 220 Seiten Statistik schon Respekt eingeflößt. Ich kenne keine Studie, die umfassender ist. Ich weiß aber auch, dass einer der Autoren, nämlich Martin Hilbert von der Universität Südkalifornien, bei der UN im Bereich Informationstechnologie arbeitet und weiß, wie man spannende Themen auch gut pressemäßig aufbereitet. Ich denke, wir werden zum Beispiel in den nächsten Tagen öfter die Zahl 295 Trillionen hören. Vor vier Jahren war die Menschheit, so Martin Hilbert, in der Lage, 295 Exabyte an Daten speichern. Und er hat dann auch ein schönes Bild gefunden: Wenn man das auf CD-ROMs presst, ergibt es einen Stapel, der bis zum Mond und noch ein bisschen weiter drüber erreichen würde. Unglaublich.
Seynsche: Das ist ganz schön viel. War das früher weniger, oder...
Schönherr: Klar, ich meine, das wäre die triviale Aussage von so einer Studie.
Seynsche: Wenn man jetzt weiter darüber nachdenkt: Wie soll es denn dann weitergehen? Machen die auch Prognosen darüber, wie viel es denn bald ist? Sind das dann nicht CDs, sondern DVDs, die bis zum Mond gehen?
Schönherr: Genau, so könnte es dann weiterwachsen. Demnächst haben wir dann auch, wenn wir CDs abschaffen, und das alles auf DVDs pressen, wird das auch bis zum Mond gehen. Das Besondere an dieser Statistik - es gibt viele, die sich mit Datenmengen und Prozessorleistungen usw. Beschäftigen - das Besondere an dieser Arbeit von Hilbert und Lopez ist, dass sie Datenmengen gewichtet miteinander vergleichen. Und dazu sage ich jetzt mal ein Beispiel, was nicht so in dieser Arbeit vorkommt, aber es ganz plastisch macht: Angenommen, gestern hat jeder Mensch auf diesem Planeten durchschnittlich vier Bilder über das Internet verschickt, vor zehn Jahren aber nur eins. Dann könnte man sagen: die Übermittlung digitaler Fotos hat datenmäßig um den Faktor vier zugenommen. Das stimmt aber nicht, weil nämlich die Methoden, Bilder digital zu komprimieren, sich in den letzten zehn Jahren sich enorm verbessert haben. Und da könnte es ja sein, dass heute nur noch ein Bruchteil an Bilddaten verschickt wird, weil ein Bild nur noch den Bruchteil an Bits auf einer Festplatte einnimmt. Also, die Datenkompression hat einfach zugenommen.
Das Beispiel ist wie gesagt fiktiv und dient nur dazu, zu zeigen, dass die Datenkompression ein Stolperstein für die großen IT-Statistiken der Vergangenheit war. Und darin unterscheidet sich die jetzt veröffentlichte Arbeit. Wir haben es mit gewichteten Daten zu tun, und die Autoren weisen mit bedacht darauf hin, dass etwa bei der weltweiten Rechenleistung, also wie schnell Rechner rechnen, diese Gewichtung schwer fällt. Denn da gibt es auch eine Art von Kompression, die ist aber nicht so zu messen, wie bei Audio beispielsweise, MP3 sagt man Faktor 10 zum Beispiel. Bei der Rechenleistung kann man sagen: die Algorithmen von vor zehn Jahren, vor 20 Jahren waren schwerfälliger und nicht so elegant wie heute, und deswegen rechnet ein Rechner heute eine Sache genauso, viel leichter als er es damals ausgerechnet hat, weil die Algorithmen besser geworden sind.
Seynsche: Welche Themenbereiche der Digitalisierung deckt denn diese Studie ab?
Schönherr: Drei Themenbereiche: Nämlich die weltweit gespeicherten Daten, das ist also das, was im Jahr 2007 vor allen Dingen auf Festplatten gespeichert war, und diese 295 Exabyte, die bis zum Mond reichen. Der zweite Datensatz ist größer: Das sind die zwischen Menschen kommunizierten Byte, also das was hin und her geht zwischen uns Menschen. Da kann man noch eine Null dranhängen an das gespeicherte. Das heißt, es wurde vor vier Jahren etwa zehn mal mehr Daten herumgeschoben als abgespeichert. Und die dritte Statistik geht auf die Rechenleistung von PC, Spielekonsolen, Großrechnern und Handys ein. Diese stieg jährlich um 58 Prozent. Die Wachstumsrate von Kommunikation stieg dagegen um 28 Prozent. Die Speicherkapazität nur um 23 Prozent.
Seynsche: Die Studie deckt der Daten nur bis 2007 ab. Ist sie da nicht so langsam veraltet?
Schönherr: Ja. Das ist das große Problem dabei. Ich finde diese Studie hervorragend, und sie gibt viel Aufschluss auch über die Methodik, wie man solche Datensätze vergleicht, also OSZE... OECD-Daten mit UN-Daten zum Beispiel. Aber diese Studie ist in einer Zeit geboren, die sich so drastisch ändert, also Facebook und Co gab bis 2007 praktisch noch nicht in dieser Form. Und das hat die ganze Kommunikation völlig umgebügelt.