Changelog
Alle noemenswaardige veranderingen worden hier bijgehouden. Dit project gebruikt Semantic Versioning. Het format is beschreven op keepachangelog.com.
Development
Sprint 1 [Ongeplubliceerd]
Sprint 2 [Ongeplubliceerd]
In sprint 2 is gebruikt gemaakt van aparte ‘feature branches’ met een grote pull request naar main #36.
Allereerst zijn er nog restpunten uit sprint 1 aangepast:
- het specificeren van
delimiterdeed het niet, dit moetsepzijn. Daarnaast worden nu alle opties die in de configuratie zijn gespecificeerd doorgegeven aan de data adapters. pathis nufile, waarbijfilealtijd een bestand is in derootdir. ‘path’ mag ook een ander absoluut pad zijn: bijvoorbeeld een bestand op een andere locatie. Er wordt ook gecheckt of de paden bestaan voor het runnen van een functie..envbestand is niet meer verplicht, maar geeft wel een warningutilmap aangemaakt voor generieke functies als tijd en post/get functiespytest.skipifvoor testen die alleen op het HKV-netwerk draaien door FEWS/postgreSQL verbindingen.- de keywords
input=..enoutput=..worden nu alleen aan de.run()functie doorgegeven, niet aan de class zelf.
Daarnaast zijn er toevoegingen gedaan ten behoeve van het inlezen van belastingen:
Inlezen en ophalen van locaties, parameters en grenswaardes(waar mogelijk) uit:
- (Noos/Vitaal) Matroos
- FEWS
- RWS waterinfo
- RWS waterwebservices
Deze inleesfuncties gebruiken allemaal de Aquo-standaard naam en code (WATHTE).
- Classificeren van belastingen aan de hand van opgehaalde/opgegeven grenswaardes.
- Toekennen van belastingen aan secties.
- Aggregeren van tijdreeksen naar momenten of bij het getij naar maxima over de getijperiode.
Sprint 3 [Ongeplubliceerd]
Inhoudelijk
In sprint 3 is weer gebruikt gemaakt van aparte ‘feature branches’ met een grote pull request naar main #45.
De nadruk lag vooral op het toevoegen van fragility curves. Fragility curves kunnen worden gemaakt voor GEKB (golfoverslag) en STPH (piping). Ook kunnen ze afhankelijk, onafhankelijk en met een gewogen gemiddelde worden gecombineerd. Hiervoor zijn de packages respectievelijk pydra_core en probabilistic piping gebruikt.
Daarnaast zijn er een heel aantal data adapters toegevoegd en veel voorbeelden hoe je het kan linken aan een continu inzicht database, daar data op kan zetten en vervolgens gebruiken in functies.
Technisch/projectmatig
De pre-commit uitgebreid en toegevoegd aan de github actions, dit run je voor je een aanpassingen doorvoer met pixi run pre-commit. De tests en publiceren van docs is nu in een windows action omgeving zodat de Dll’s van pydra_core het doen, de pixi.lock is geupdate om nieuwe packages toe te laten.
Sprint 4 [0.1.0]
Inhoudelijk
Alle aanpassingen zijn te vinden in pull request #54
Waar in sprint 3 een groot deel van het werk lag in ‘nieuwe’ inhoud, was dit wat beperkter in sprint 4. Er zijn toevoegingen gedaan aan de FragilityCurve base class waarmee het nu ook mogelijk is om met een overschrijdingsfrequentie lijn de conditionele kans te integreren. Hiermee kunnen verschillende varianten (combinatie van fragility curve en overschrijdingsfrequentie) worden vergeleken.
Wel is veel werk verricht om een het integreren van de curve mooi weer te geven in de viewer. Hier is ook aan een fast-api implementatie gewerkt.
Technisch/projectmatig
Publiceren op PyPi is nu mogelijk en gaat volledig automatisch via github actions, dit run je door een tag aan te maken op de github.
Daarnaast checkt de pre-commit nu ook op docstring format zodat het netter in de ‘API reference’ komt in de documentatie. Hierdoor zijn een hele hoop docstrings aangepast.
Het verschil tussen waterlevel(s) en hydaulicload(s) aangepakt, we voeren nu overal hydaulicload.
Matroos was al beschikbaar, maar maakte gebruik van de timeseries endpoint. Omdat timeseries de vertaling naar reeks al op de server van matroos doet, kan dit wat traag zijn. Om dit op te lossen is na contact met het beheer van Matroos ook de maps1d endpoint toegevoegd, deze leest de ‘ruwe’ NetCDF bestanden in en vertaald ze naar een tijdreeks die in de toolbox kan worden gebruikt.
Sprint 5 [0.1.1]
Inhoudelijk
Alle aanpassingen zijn te vinden in pull request #57
In Sprint 5 is gekeken naar het filteren, ontsluiten en visualiseren van inspectieresultaten. Er zijn meerdere vormen van ontsluiting toegevoegd in de Continu Inzicht Viewer:
- WMS-laag via link
- GeoJSON-objecten in een kaartweergave
- Tabelweergave met inspectiegegevens
Daarnaast zijn er diverse restpunten opgepakt, waaronder:
- Centrale logging: Afvangen van alle fouten tijdens de
run()-uitvoering, met uitgebreide configuratiemogelijkheden. - Fragility curves functionaliteit is uitgebreid:
- Betere interpolatie functie
- Ondersteuning voor stapfuncties
- Correct omgaan met kleine kansen
- Validatie op monotoon stijgende curves
- Een integratie test is uitgevoerd om de snelheid te bepalen van de rekenmodules en waar nodig aanpassingen geweest.
Technisch
De opmaak informatie voor kaartlagen nu uit de database opgehaald door de viewer, dit was een handmatige configuratie stap. Gebruikers kunnen op deze manier makkelijker aanpassingen doorvoeren in de viewer.
De logging gebruikt een nieuwe ‘baseClass’: ToolboxBase, inherit deze om logging automatische toe te voegen aan de run() functie.
V0.1.2 [0.1.2]
Inhoudelijk
Alle aanpassingen zijn te vinden in pull request #73
In sprint 6 (na jaar 2025) zijn twee onderwerpen opgepakt: Toepassen van maatregelen en toevoegen van Overstromingsrisico’s
Maatregelen
Het is nu mogelijk om gegeven een maatregel de fragility curve in een vak aan te passen naar een voorberekende curve. Indien de voorberekende curve er niet is, wordt de huidige curve verschoven.
Overstromingsrisico’s
Met de overstromingsscenario’s kan de huidige overstromingskans uitgedrukt worden in een overstromingsrisico door de gevolgen in kaart te brengen. Deze kans kan geaggregeerd worden naar een gebied.
Technisch
Om de test-kaarten van overstromingsrisico ook op dezelfde plek op te slaan, gebruiken we Git LFS. Wellicht moet als de hoeveelheid test-data blijft groeien, dit naar een andere repo. Dit is echter alleen voor development van belang.
De documentatie-map is wat opgeschoond met één map per notebook, zo kan je de relevante data sneller vinden.
Kleine aanpassing in de data adapter (check_rootdir) om nu ook de rootdir op te slaan in de global variables. Deze kan dan later gebruikt worden; voor de overstromingsscenario kaarten was dit handig. In de toekomst is het misschien beter om daar later een speciaal type adapter voor te maken.