Alle asynchronen Celery Jobs, welche notwendig sind um die Datenbank zu füllen, zu einem Celery Task zusammenführen
Jobs:
- media ordner auslesen
- News Seite der UP crawlen
- auf diesen Job muss eigentlich nicht gewartet werden, wenn alle Kategorien entnommen wurden, kann das Crawling weiter im Hintergrund stattfinden und die Pipeline kann weitergehen.
- Kategorien übertragen
- simulierte Daten generieren
- eine vordefinierte Anzahl von Nutzern erstellen (1000)