Mittels DeepLabCut werten da Verhaltensbiologen und -biologinnen usw. Bewegungsmuster in Videoaufnahmen aus:
Quantification of behavior is critical in applications ranging from neuroscience, veterinary medicine and animal conservation efforts. A common key step for behavioral analysis is first extracting relevant keypoints on animals, known as pose estimation. … We present a series of technical innovations that enable a new method, collectively called SuperAnimal, to develop and deploy deep learning models that require zero additional human labels and model training. Quelle
Ich poste das hier deshalb, weil auch eine Fruchtfliege da auf der “Verpackung” abgebildet ist. Typische Bewegungsmuster bei der Eiablage wurden da wohl erforscht (leider kein Volltext). Die Biene ist da ein LKW im Vergleich. Das schreit m.E. z.B. nach einer Evaluation der Bienentanz-Beobachtungen.
Oder das ganze Treiben am Flugloch (da gibts ja diesen Klassiker von H. Storch): Wenn Storch seine Beuten nicht mehr öffnen musste, weil er alles Notwendige und Wissenswerte am Flugloch ablesen konnte, warum sollte das nicht auch eine mustererkennungsbasierte Videobeobachtung leisten können?
Das würde dann zum apic.ai-Thread 2018-22 hier bei uns passen.
Konkret dargestellt ist die Methode am Beispiel von Stressforschung an Mäusen.
Selbstverständlich lassen sich auch mehrere Einzelindividuen “auf einen Blick” auswerten.
Eine auf Nager spezialisierte Auswertungssoftware gibt es: deepOF (Quelltext). Etwas vergleichbares für Insekten hab ich nicht gefunden (aber auch nicht systematisch gesucht).