Alle asynchronen Celery Jobs, welche notwendig sind um die Datenbank zu füllen, zu einem Celery Task zusammenführen

Jobs:

  • media ordner auslesen
  • News Seite der UP crawlen
    • auf diesen Job muss eigentlich nicht gewartet werden, wenn alle Kategorien entnommen wurden, kann das Crawling weiter im Hintergrund stattfinden und die Pipeline kann weitergehen.
  • Kategorien übertragen
  • simulierte Daten generieren
  • eine vordefinierte Anzahl von Nutzern erstellen (1000)
Edited by Jan Bernoth