NW: Grundlagen der Verarbeitung von gro?en Datenmengen und Datenstr?men
Auf einen Blick
DFG Nachwuchsgruppe

Projektbeschreibung
Die effiziente Verarbeitung extrem gro?er Datenmengen wird - nicht zuletzt weil Sekund?r- und Terti?r-Speicherplatz in den letzten Jahren zu sehr preiswerten Ressourcen geworden sind - zu einer immer wichtigeren Herausforderung für die Informatik. Solch gro?e Datenmengen treten in vielen Anwendungsbereichen auf, etwa als Sammlung wissenschaftlicher Ergebnisse (z.B. Medizindatenbanken wie Medline und Swiss-Prot), in Form von Sensordaten oder als B?rsenticker. H?ufig liegen die Daten dabei nicht in einer klassischen, effizient bearbeitbaren Datenbank, sondern nur in semistrukturierter Form vor, z.B. als XML-Dokument. Solche semistrukturierten Daten k?nnen auf natürliche Weise durch B?ume repr?sentiert werden. Wegen der gro?en Datenmenge kann in der Regel nicht die Baumrepr?sentation der gesamten Daten im Hauptspeicher eines Rechners vorgehalten werden, sondern nur ein gewisser Ausschnitt. In vielen Anwendungen sind die Daten sogar nur nach und nach, als Datenstrom zug?nglich, etwa beim B?rsenticker, der mit der Zeit immer wieder neue 金贝棋牌 sendet. Zur effizienten Verarbeitung solcher Daten sind daher neue, über die aus der klassischen Datenbankverarbeitung bekannten hinausgehende Techniken erforderlich. Ziel des Projekts ist die Erforschung der theoretischen Grundlagen der Verarbeitung solch gro?er, semistrukturierter Datenmengen hinsichtlich Anfrageoptimierung, Eigenschaften von Anfragesprachen und prinzipieller Grenzen der Datenstromverarbeitung. Besonders berücksichtigt werden soll dabei ein Szenario, bei dem es nicht m?glich ist, eine für die effiziente Bearbeitung geeignete Repr?sentation der gesamten Daten im Hauptspeicher vorzuhalten. Wichtige Ma?e für die Komplexit?t von Anfragen sind daher die Gr??e des Speicherplatzes sowie der durch Speicherzugriffe verursachte Aufwand, der zur Bearbeitung einer Anfrage n?tig ist.