Suchmaschinen gehören immer mehr zu den häufig genutzten Medien, sind sich die Teilnehmer des Suchmaschinen-Workshops der Friedrich-Ebert-Stiftung einig. Besonders die Dominanz des Marktführers "Google" ist den Politikern aber auch Wissenschaftlern suspekt, denn wird von den Internetnutzern nur eine Suchmaschine genutzt – und das ist in den meisten Fällen ausschließlich Google, dann dominiere meist auch nur ein einziges Suchergebnis: Ganz oben die bezahlten Ergebnisse, dann die mit allerlei Wortverlinkungen und anderen Tricks in die ersten Reihen katapultierten Websites, beispielsweise, wenn beim Suchwort "Deutschland" Seiten von Neonazis erscheinen. Die aus London angereiste "Google"- Sprecherin Rachel Whetsone hingegen sieht sich außerstande, suspekte Suchergebnisse redaktionell zu überprüfen und nachzubessern. Man hielte sich zwar an das jeweils nationale Recht, aber:
"Wir glauben nicht, auf den ganzen Inhalt des Internets reagieren zu können. Unser Algorithmus nimmt nur die Bewertung nach dem Bestellschlüssel der Nutzer vor und wir arbeiten daran, es so relevant wie möglich zu machen. Legalen Inhalt dürfen sich die Leute ansehen, illegaler wird entfernt. Das ist die einzige Methode."
Ganz anderer Meinung ist Marcel Machill, Journalistikprofessor in Dortmund und Leipzig. Er plädiert für öffentlich-rechtlich geführte Suchmaschinen, die durch redaktionell bearbeitete Suchergebnisse brillieren könnten, um damit Google und Co eine ernstzunehmende Konkurrenz zu bieten:
"Man muss vielleicht nicht gleich mit einer ganzen Suchmaschine kommen, aber es würde sicherlich sehr viel Sinn machen, auf die öffentlich-rechtlichen Rundfunkanstalten, die ja bereits durch Gebühren finanziert sind, die stärker auch im Online-Bereich aktiv werden zu lassen. Also quasi dieses von der bundesdeutschen Medienpolitik auferlegte Verbot, dass die öffentlich-rechtlichen Rundfunkanstalten sich zu sehr im Online- Bereich tummeln, erweist sich hier als grotesk. Schauen wir nach England, sagen, eine der besten Websites ist dort die BBC! Und es macht natürlich Sinn, dass eine solch etablierte Anstalt wie die BBC ihre Kompetenz auch im Online-Bereich zeigt. Warum sollte das in Deutschland nicht möglich sein?"
Davon könnten schließlich alle profitieren, die normalen Suchmaschinennutzer sowie Journalisten, die normalerweise mehrere Suchmaschinen parallel nutzen würden. Diese Art der Recherche, so Nic Newman, Leiter der Produktentwicklung und Technologie von BBC-News-Interactive in London nehme heute die meiste Zeit der Journalisten in Anspruch, schon weil die Journalisten dabei mit unterschiedlichsten Schnittstellen arbeiten müssten:
"Aufgrund des Zeitmangels vergessen die Journalisten häufig, dahin zu gehen, wo es die beste Information gibt und das ist das eigene Forschungsarchiv. Wir vertreten die Ansicht, dass intelligente personalisierte Suche die unterschiedlichen Technologien aufeinander abstimmt und auch Leistungen in ein Paket mit einbezieht, die die Recherche erleichtern. Wir wollen eine Schnittstelle schaffen, die es Journalisten leichter macht, unterschiedliche Informationsquellen zu nutzen."
Dazu gehöre dann ein so genanntes Alarmsystem, das sich meldet, wenn sich wesentliche Fakten der gerade bearbeiteten Nachricht ändern. Beiträge des Publikums soll mit einfließen, wie beispielsweise Fotos und Filme zu aktuellen Ereignissen. Der Journalistikprofessor Marcel Marchill meint, dass eine seriöse Bearbeitung der Inhalte den Vorteil einer höhere Treffergenauigkeit garantiere – und somit auch höhere Einnahmen der Suchmaschinen-Betreiber:
"Ich wünsche mir vor allem von den Suchmaschinen, dass sie ihre Verantwortung wahrnehmen, die sie mittlerweile qua ihrer Machtposition erlangt haben. Ich denke, die Suchmaschinen müssen etwas runterkommen von dieser Position "wir sind nur ein mathematischer Algorithmus und wir verlinken ja nur auf Andere und ansonsten haben wir mit all dem nichts zu tun", sondern Suchmaschinen sollten eine publizistische Verantwortung eben auch für die Inhalte wahrnehmen, auf die sie verlinken. Es macht einen Unterschied, ob ich unter den ersten zehn Suchworteingaben zu NSDAP oder Holocaust auf Nazis verweise oder auf Webseiten, die sich seriös mit dem Phänomen Holocaust beschäftigen. Das macht einen Unterschied und diese Position sollten Suchmaschinen auch akzeptieren."
"Wir glauben nicht, auf den ganzen Inhalt des Internets reagieren zu können. Unser Algorithmus nimmt nur die Bewertung nach dem Bestellschlüssel der Nutzer vor und wir arbeiten daran, es so relevant wie möglich zu machen. Legalen Inhalt dürfen sich die Leute ansehen, illegaler wird entfernt. Das ist die einzige Methode."
Ganz anderer Meinung ist Marcel Machill, Journalistikprofessor in Dortmund und Leipzig. Er plädiert für öffentlich-rechtlich geführte Suchmaschinen, die durch redaktionell bearbeitete Suchergebnisse brillieren könnten, um damit Google und Co eine ernstzunehmende Konkurrenz zu bieten:
"Man muss vielleicht nicht gleich mit einer ganzen Suchmaschine kommen, aber es würde sicherlich sehr viel Sinn machen, auf die öffentlich-rechtlichen Rundfunkanstalten, die ja bereits durch Gebühren finanziert sind, die stärker auch im Online-Bereich aktiv werden zu lassen. Also quasi dieses von der bundesdeutschen Medienpolitik auferlegte Verbot, dass die öffentlich-rechtlichen Rundfunkanstalten sich zu sehr im Online- Bereich tummeln, erweist sich hier als grotesk. Schauen wir nach England, sagen, eine der besten Websites ist dort die BBC! Und es macht natürlich Sinn, dass eine solch etablierte Anstalt wie die BBC ihre Kompetenz auch im Online-Bereich zeigt. Warum sollte das in Deutschland nicht möglich sein?"
Davon könnten schließlich alle profitieren, die normalen Suchmaschinennutzer sowie Journalisten, die normalerweise mehrere Suchmaschinen parallel nutzen würden. Diese Art der Recherche, so Nic Newman, Leiter der Produktentwicklung und Technologie von BBC-News-Interactive in London nehme heute die meiste Zeit der Journalisten in Anspruch, schon weil die Journalisten dabei mit unterschiedlichsten Schnittstellen arbeiten müssten:
"Aufgrund des Zeitmangels vergessen die Journalisten häufig, dahin zu gehen, wo es die beste Information gibt und das ist das eigene Forschungsarchiv. Wir vertreten die Ansicht, dass intelligente personalisierte Suche die unterschiedlichen Technologien aufeinander abstimmt und auch Leistungen in ein Paket mit einbezieht, die die Recherche erleichtern. Wir wollen eine Schnittstelle schaffen, die es Journalisten leichter macht, unterschiedliche Informationsquellen zu nutzen."
Dazu gehöre dann ein so genanntes Alarmsystem, das sich meldet, wenn sich wesentliche Fakten der gerade bearbeiteten Nachricht ändern. Beiträge des Publikums soll mit einfließen, wie beispielsweise Fotos und Filme zu aktuellen Ereignissen. Der Journalistikprofessor Marcel Marchill meint, dass eine seriöse Bearbeitung der Inhalte den Vorteil einer höhere Treffergenauigkeit garantiere – und somit auch höhere Einnahmen der Suchmaschinen-Betreiber:
"Ich wünsche mir vor allem von den Suchmaschinen, dass sie ihre Verantwortung wahrnehmen, die sie mittlerweile qua ihrer Machtposition erlangt haben. Ich denke, die Suchmaschinen müssen etwas runterkommen von dieser Position "wir sind nur ein mathematischer Algorithmus und wir verlinken ja nur auf Andere und ansonsten haben wir mit all dem nichts zu tun", sondern Suchmaschinen sollten eine publizistische Verantwortung eben auch für die Inhalte wahrnehmen, auf die sie verlinken. Es macht einen Unterschied, ob ich unter den ersten zehn Suchworteingaben zu NSDAP oder Holocaust auf Nazis verweise oder auf Webseiten, die sich seriös mit dem Phänomen Holocaust beschäftigen. Das macht einen Unterschied und diese Position sollten Suchmaschinen auch akzeptieren."