Archiv


Kommen tropische Krankheiten nach Deutschland?

Das Klima hat sich in den vergangenen Jahren fühlbar verändert, und damit auch die Lebensbedingungen für Pflanzen und Tiere. Immer mehr fremde Arten dringen in unsere Siedlungsräume vor. Sie können neue Krankheiten übertragen, die bisher nur in den Tropen zu Hause waren. Eine Studie des Umweltbundesamtes kommt zu dem Schluß: es gibt hierzulande bereits neue Erreger und es gibt auch bereits entsprechende exotische Tierarten, um diese zu übertragen.

Von William Vorsatz |