Suchmaschinen sollen über Textanalysen genauere Treffer liefern
"Agenten" verfeinern die Suche im Netz

Die Anbieter von Suchmaschinen haben ein Problem: Ihre Technik fördert oft nur zweitrangige Informationen zu Tage. Wirklich wichtige Dokumente bleiben häufig verborgen oder gehen in der Vielzahl der Fundstellen verloren. In Zukunft soll Software weiterhelfen, die nicht nur gezielter sucht, sondern aus den Nutzerreaktionen lernt.

DÜSSELDORF. Forscher der Universität Linz wollen eine Alternative zu klassischen Internet-Suchmaschinen bieten: Sie planen, so genannte Intelligent Agents durch die Netze zu schicken. Das sind kleine Softwarepakete, die in der Programmiersprache Java geschrieben werden. Sie suchen das Web nach benutzerbestimmten Kriterien und Umschreibungen suchen und lernen dabei aus der Reaktion des Benutzers. Das Ziel sind völlig autonom handelnde Softwareagenten, die vom Benutzerrechner regelmäßig Anfragen starten - etwa nach Stellenangeboten.

Das System erkennt, wenn etwa der Suchende vor allem Angebote aus bestimmten Postleitzahlbereichen anklickt. Solche Eingrenzungen werden bei späteren Suchen berücksichtigt. Ähnlich soll die Linzer Suchmaschine arbeiten, sagt Mitentwickler Michael Sontag. Derzeit befinde sich die "selbstdenkende Search Engine" noch in der Entwicklung. Sie werde aber bereits bei der Suche nach Büchern im Web eingesetzt, so Sontag.

Agenten benötigen hohe Rechnerleistung

Anbieter klassischer Suchmaschinen halten den Einsatz solcher Agents bestenfalls mittelfristig für denkbar: "Momentan sehen wir noch keine Anwendung, die sowohl intelligent ist als auch große Datenmengen verarbeiten kann. Wirklich leistungsfähige Agents brauchen sehr viel Rechenkapazität", sagt Andreas Hartmann von Altavista, dem Betreiber der gleichnamigen Suchmaschine aus Palo Alto.

Suchmaschinen bedienen sich so genannter Crawler, die in definierten Abstände Web-Seiten besuchen, Inhalte erfassen, Veränderungen erheben, neue Links suchen und diese Ergebnisse in einer Datenbank ablegen. Der Wettlauf um die Superlative ist im vollen Gang: Mitte Juni meldete US Fast Corp. -Suchspezialist (www.alltheweb) stolz, 20 Millionen Seiten mehr als der Hauptkonkurrent Google Inc. zu durchforsten. Insgesamt würden knapp 2,1 Milliarden Seiten abgegrast.

Neben dem Umfang ist aber auch die Frische der abgesuchten Seiten von großer Bedeutung. Der Datenbestand wird in der Regel alle ein bis zwei Wochen ausgetauscht. Derzeit feilen die Anbieter daran, die Ergebnisse noch genauer an die Erwartungen der Benutzer heranzuführen. "Wir könnten uns vorstellen, die Anfragen der Benutzer durch geeignete Schlagworte zu ergänzen", sagt Googles Forschungschefin Monika Henzinger. Wer also Haus und Spanien eingibt, wird gefragt, ob er ein Haus mieten oder ein Feriendomizil buchen will, ob ihn Preise interessieren oder in welcher Region gesucht werden soll. Es komme dabei auf das richtige Maß an Hilfestellung an. Erfahrene Benutzer könnten sich durch zu viel Unterstützung bevormundet fühlen, fürchtet Henzinger.

Zusatzinfos grenzen Suche ein

Welche Nachfragen sinnvoll sein könnten, ermitteln die Suchmaschinen, indem sie die Benutzeranfragen auswerten. Hinzu komme "die kollektive Intelligenz des Internet", ergänzt Altavista-Manager Hartmann. Seine Software berücksichtigt, in welchem Zusammenhang bestimmte Begriffe vorkommen und bietet dann an, nur in bestimmten Kategorien zu suchen, um die Suche einzugrenzen. Das empfiehlt sich besonders, wenn ein Wort mehrere Bedeutungen hat. "Wir erheben während der Abfrage eines Benutzers, in welchen Zusammenhängen sein Wort am häufigsten vorkommt und bilden daraus Kategorien - wie Autos oder Wildkatzen beim Stichwort Jaguar."

Besonders mit der beliebten Suche nach Nachrichten wollen sich die Anbieter profilieren. Die Lycos AG hat das Newsscroll-Verfahren entwickelt: Fährt man beim Betrachten einer Nachricht mit der Maus über ein Stichwort, werden Seiten mit Zusatzinformationen angezeigt. Google durchforstet die Seiten englischsprachiger Medien nach News. Mit einem semantischen Verfahren werden diese thematisch sortiert auf der Web-Seite gruppiert.

In die Kritik geraten sind ist die Praxis mancher Suchmaschinenanbieter, werbliche Einträge in der Auflistung nach ganz oben zu stellen. So lässt Altavista von Partnern so genannte sponsored Links verkaufen, die dann gesondert gekennzeichnet am Anfang der Suchliste stehen. Verbraucherschützer in den USA beschweren sich jedoch, dass nicht alle Anbieter die Trennung von echten und gekauften Treffern deutlich machten. Derzeit prüft die amerikanische Aufsichtsbehörde Federal Trade Commission unter anderem die Seiten von AOL Time Warner Inc., Microsoft Corp., Ask Jeeves Direct Hit Technologies, Emeryville, Altavista, und Terra Lycos SA, Waltham.

Serviceangebote
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%