Aus der Verf gbarkeit gro er Textkorpora ergeben sich f r die maschinelle Sprachverarbeitung, f r die Lexikographie und f r das Information Retrieval neue Perspektiven. In dieser Arbeit werden M glichkeiten aufgezeigt, mit Hilfe statistischer Verfahren zu verl lichen Aussagen ber die Existenz komplexer lexikalischer Einheiten zu kommen. Zu diesen Lexikoneinheiten z hlen Funktionsw rter ebenso wie Kollokationen und feste Wendungen. Grundlage der Untersuchungen sind Textkorpora des Deutschen. Bei der Bewertung der G te verschiedener statistischer Verfahren zeigt es sich, da die Wahl eines Verfahrens von der konkreten Aufgabe abh ngig ist. Anhand dreier Fallstudien - Abt nungspartikeln, Verbpartikeln und Pronomen - wird anschaulich dargelegt, welcher Erkenntnisgewinn f r die lexikalische Arbeit aus der Wahl des geeigneten statistischen Verfahrens zu ziehen ist. F r die maschinelle Sprachverarbeitung und das Computerlexikon von morgen folgt, da korpusgest tzte lexikalische Arbeit fruchtbringender ist als die systematische Auswertung gedruckter W rterb cher. Es wird auch gezeigt, wie orthographisch komplexe Lexikoneinheiten angemessen in einem Computerlexikon repr sentiert werden k nnen. Mit einem um komplexe Einheiten bereicherten Lexikon sind auch Probleme der Worterkennung beim Information Retrieval und in der Lexikostatistik besser zu meistern.