Monitoring von Winden (Convolvulus sp.) mit Drohnen
Wurzelunkräuter vermehren sich weitgehend vegetativ über ihr Wurzelsystem und treten inhomogen in Nestern auf. Diese sind auf Feldebene visuell schwer zu erfassen. Drohnenflüge in Verbindung mit einer Segmentierung des Beikrauts eröffnen die Möglichkeit zur Langzeitkartierung und Erfolgskontrolle von Regulierungsmaßnahmen. Für Winden (Convolvulus sp.) wurde in einem ersten Ansatz eine spektrale Segmentierung vor dem Hintergrund von abreifendem Getreide (grün versus gelb) auf Basis eines random forest Algorithmus erarbeitet. Trainings- und Testdaten wurden über georeferenzierte und visuell kartierte 1x1 m Subplots in einem Bodenbearbeitungsexaktversuch mit Orthofotos verknüpft. Diese wurden mit einer RBG Kamera der Drohne DJI Phantom 4Pro in 40 m Flughöhe erfasst. Der Algorithmus erzielte eine Präzision von 91% mit einer Falschklassifikation von 12-14%. Angewendet auf neuen Testdaten des gleichen Aufnahmezeitpunktes und –feldes, erzielte eine mit R2 = 0.7 signifikante Korrelation. Der Bodenbearbeitungsexaktversuch konnte damit erfolgreich ausgewertet werden. Die Evaluierung an zusätzlichen Orthofotos von Praxisschlägen zeigte jedoch, dass eine allgemeine Verunkrautung und Lagerstellen im Getreide stören. Ein Deep Learning Algorithmus, der neben spektralen Informationen auch Muster erkennen kann, wird zur Weiterentwicklung vorgeschlagen.
Perennial weeds mainly spread through their rooting system resulting in an inhomogeneous distribution. This is hard to monitor visually and offers the opportunity for drone monitoring. Segmentation of weeds in contrast to crops can provide maps for long-term observation and success monitoring. Bindweed (Convolvulus sp.) in senescening cereals was visually scored in 1x1 m subplots in a tillage trial and intersect with the respective orthofoto. The RGB information of the drone images taken with a DJI Phantom 4Pro in 40m flight height was taken for spectral segmentation (green versus yellow) with a random forest algorithm. Precision was 90% with 12-14% incorrect classifications. Applied to new subplot data of the same field and date resulted in a significant correlation of visually scores with segmented bindweed pixels (R2 = 0.7). The tillage trial was therefore successfully evaluated by drone imaging. Yet, tested with orthofotos of real life on-farm fields, general weed infestation and lodging of cereals have shown to be problematic. Further development of a deep learning algorithm including spectral and pattern information is envisaged.