Auf dieser Seite werden Fehler, deren Ursache und Möglichkeiten zu deren Behebung dokumentiert. |
Es gab in der Vergangenheit bereits diese Seite, die nicht mehr gepflegt wurde: DDBdash Erklärungen für Log-Dateien/Fehlermeldungen
Evtl. kann man daraus Infos hierher übertragen.
Fehler | Fehlercode/Log-Beispiel | Ursache | Behebung | weitere Infos für Entwickler | Optimierungsmöglichkeit | |
---|---|---|---|---|---|---|
Beim Export in P wurde neben einem DriverTimeoutException-Fehler auch folgender Fehler gemeldet, der mir bisher noch nicht untergekommen ist. In Q1 war der Export dagegen fehlerfrei durchgelaufen. | WriteTimeoutException: Cassandra timeout during SIMPLE write query at consistency LOCAL_QUORUM (2 replica were required but only 1 acknowledged the write)” | Die WriteTimeoutException mit unterschiedlichen Folgefehlern entsteht, wenn zu große Datenmengen gleichzeitig ins Cassandra-Cluster geschrieben werden. Der Treiber in den Spark Apps meldet dann, dass das Cluster mit den zu schreibenden Daten überfordert ist und meldet, dass die Verbindung abgebrochen ist. Die Gegenstelle im Cluster ist dann für die Spark App nicht mehr erreichbar, daher folgt eine HeartbeatException. Der Treiber in der Spark App löst dann allgemein eine DriverTimeoutException aus. | Erneut prozessieren, wenn weniger Prozesse parallel laufen | Als Lösung wäre hier möglich, einige Einstelllungen in den Spark Apps zu verändern, damit sich die Schreibgeschwindigkeit auf das Cassandra-Cluster verringert. | ||
Dash-Prozess verharrt im Status "WAIT_FOR_BINARIES_SERVICE" | In dieser Stage werden die ALTOs gezogen. Das kann auch mal sehr lange dauern, da es sich oft um große Datenmengen handelt. Solange eine Queue im Binaries Service abgearbeitet wird, ist alles okay. | warten FIZ kann prüfen: | Folgender Fall kam einmal vor: Abfrage, ob Binaries fertig sind, ging auf falschen BS --> SparkApps waren korrekt auf dn01 konfiguriert, aber Dash-Backend auf dn09 | |||
Ingest-Button reagiert nicht | FIZ: Neustart Dash Frontend + Backend + Binaries Service | Regelmäßiger Neustart der Komponenten | ||||
Reports zu Export, Index, etc. nicht mehr vorhanden | FIZ: | Regelmäßiger Neustart der Komponenten | ||||
Transformation läuft in Fehler beim Abruf der refId eines Binaries | XsltTransformationException: Error evaluating ((attr{position=...}, ...)) on line 85 column 40 of binaries.xsl:: HTTP 500 Internal Server Error at template create_binary on line 29 column 40 of binaries.xsl: invoked by xsl:call-template at jar:file:/data/storage/logs/spark/worker/app-20230803142938-0472/0/./ddb-mapping-new-4.21.jar!/xsl/lido/binaries/binaries.xsl#407 invoked by xsl:for-each at jar:file:/data/storage/logs/spark/worker/app-20230803142938-0472/0/./ddb-mapping-new-4.21.jar!/xsl/lido/binaries/binaries.xsl#68 In template rule with match="/" on line 66 of binaries.xsl | Binaries Service für Transformation nicht erreichbar | FIZ: |
| ||