Subato

Resource Files

WebCrawler

Freiwillige Zusatzaufgabe

Diese Aufgabe ist die Möglichkeit, falls man sonst ein Blatt zu wenig zum Bestehen abgenommen bekommen hat, dieses mit einer Lösung zu diser Aufgabe zu kompensieren und so das Praktikum doch noch zu bestehen.

Diese Aufgabe hat keine hinterlegten Tests. Sie müssen in der Prkatikumsstunde zeigen, ob und wie das Programm erfolgreich funktioniert.

Schreiben Sie eine Klasse, die mit einer URL als String codiert und einem Writer-Objekt instanziiert wird.

In der Methode start wird versucht, die Webseite der URL zu laden, um dann heraus zu bekommen, welche weiteren URLs dort verlinkt sind. Für diese soll dann weiter verfolgt werden, welche Seiten dort verlinkt sind.

Die besuchten URLs sollen in ein Writer-Objekt jewisls in eine einzelne Zeile geschrieben werden. 

Es sollen keine zwei URLs doppelt besucht werden.


import java.util.Set; import java.util.HashSet; import java.io.Writer; public class Crawl{ String startURL; Writer out; /** Dient dazu, sich zu merken welche Urls schon gefunden und besucht wurden. **/ private Set<String> visitedUrls = new HashSet<>(); public Crawl(String startURL,Writer out){ this.startURL = startURL; this.out = out; } public void start(){ //Besuche alle noch nicht besuchten URLS //hole die Seite. Schaue nach welche //Seiten dort verlinkt sind und folge diesen. //Schreibe jede URL, die erfolgreich //besucht wird in den Writer in eigene Zeile. } }
java
You are not logged in and therefore you cannot submit a solution.