Linzer Forscher blicken mit Drohnen und KI unter Blätterdach

Oliver Bimber und Kollegen stellen Methode kostenlos zur Verfügung
Linzer Forscher entwickelten in den vergangenen Jahren ein Drohnensystem, das mit Hilfe von Künstlicher Intelligenz (KI) Wärmebilder so kombinieren kann, dass vermisste Personen auch unter starker Vegetation geortet werden können. Im Fachblatt "Remote Sensing" zeigte das Team nun, dass durch eine geschickte automatische Kombination von Aufnahmen in allen Frequenzbereichen in Echtzeit sogar Vögel in dichten Baumkronen gezählt und identifiziert werden können.

Sucht man nach vermissten oder verunglückten Personen werden von Rettungsorganisationen oft Wärmebildkameras auf Helikoptern eingesetzt. In dicht bewaldeten Gebieten stößt dies aber rasch an Grenzen, denn dort lassen sich die Bilder der Differenz von Körperwärme und Umgebungstemperatur nur eingeschränkt erzeugen. Das Problem besteht etwa darin, dass die Vegetation den Untergrund zu stark abdeckt oder die sonnenbestrahlten Bäume eine ähnliche Temperatur wie die vermisste Person haben.

Ein Team um Oliver Bimber vom Institut für Computergrafik der Universität Linz setzt auf eine Bildverarbeitungstechnik zum Wegrechnen von Verdeckungen (Airborne Optical Sectioning, AOS), die mit KI kombiniert wird. Vorgestellt wurde die Technologie zum Sichtbarmachen von eigentlich unsichtbaren Objekten im Jahr 2018. In den folgenden Jahren zeigten die Forscher u.a., dass man damit sich bewegende Personen in Echtzeit auffinden kann. Neben der Suche nach Vermissten, zeigten sie das Potenzial des Systems bei der Waldbranderkennung, in der Archäologie oder in der Wildbeobachtung.

So veröffentlichte die Gruppe im Jahr 2020 bereits Daten aus einem Projekt zur Beobachtung einer brütenden Reiherkolonie am Inn an der Grenze von Oberösterreich zu Bayern. Unter anderem auf Basis dieser Bilder ging man zuletzt an die weitere Verfeinerung des Verfahrens. Je nachdem, welcher optische Frequenzbereich in den zahlreichen Aufnahmen eines Ortes bzw. in den Wärmebildern abgedeckt wird, sind darin verschiedene Informationen enthalten, erklärte Bimber im Gespräch mit der APA. Bei den Bildern, wo die Verdeckung weggerechnet ist, und man auf den Waldboden schaut, lässt sich die Struktur des Waldes zum Beispiel gar nicht mehr erkennen.

"Wir beschreiben jetzt ein neues Verfahren, wie diese ganze Bildinformation miteinander verrechnet werden kann", sagte der Wissenschafter. Mit Hilfe von Verfahren des maschinellen Lernens funktioniert das in wenigen Millisekunden. So entsteht ein kombiniertes Bild, in dem die jeweils wichtigsten Informationen gleichzeitig gezeigt werden können. Man weiß dann ebenso, wo man sich im Wald befindet sowie was unter den Blättern zu sehen ist. Im Vergleich mit anderen Ansätzen zur Bilderfusion, "sind wir mit Abstand das beste Verfahren", so Bimber.

Im Fall der Bilder vom Inn offenbarte sich schon 2020 Erstaunliches: Die RGB-Bilder ließen Reiher und ihre Nester erkennen. Vogelkundler konnten auf Basis dieser Aufnahmen sogar ausmachen, um welche Arten es sich handelte. "Die Wärmebilddaten haben die Information geliefert, wie viele Kücken in einem Nest liegen und ob es benutzt wird", sagte Bimber. Damals musste man die Daten aber Schicht für Schicht vom Blätterdach bis zum Boden nach relevanten Informationen absuchen. Das schafft jetzt das neue Verfahren automatisch. Gleiches gilt auch im Bereich der Waldbranderkennung und der Rettung von Personen.

Die Methode der Linzer Wissenschafter wird in weiteren Projekten u.a. mit Blaulichtorganisationen, wie dem Landesfeuerwehrverband OÖ weiterentwickelt. Mittlerweile können diese Organisationen die Technologie auch kostenlos nutzen. "Wir haben sie frei zur Verfügung gestellt", so Bimber.

(S E R V I C E - Neue Publikation online: https://doi.org/10.3390/rs16040673; Video zu AOS: https://www.youtube.com/watch?v=9HLdiJAZNTM)

Kommentare