Sensortechnik für Wildbienen-Nistorte

Inzwischen habe ich an der Programmierung gearbeitet und kann z.B. alle 10 Sekunden ein Bild erzeugen:

und mit rot beleuchtet

Der 2. Prototyp ist fertig, jetzt mit RaspberryPi 3 und der PiCam V2.1 mit 8 MPixel

gelbe Beleuchtung mit unterschiedlicher Lichtstärke

rote Beleuchtung density = 20

2 Likes

Ist das jetzt ein am Rand verklebtes dünnes Plexiglas als Abdeckung?

Zwei weitere Schutzkästen werden morgen per Postpaket bei Dir eintreffen.

Sehr schön Didi / @didilamken! Bist du auf einen “richtigen” RasPi wegen performance gewechselt oder was war der Grund für die Änderung?

Aktuell scheinen die Aufnahmen in der Mitte einen Schatten zu haben, am Rand aber gut belichtet zu sein. Noch eine Idee dazu, vielleicht kann man da noch optimieren: Wäre indirektes Licht auch eine Option, die LEDs werfen ja manchmal recht heftige Schlagschatten /überbelichtete Punkte . D.h. LEDs nach hinten ausrichten, dort einen hellen matten Hintergrund, der das Licht diffus reflektiert. Alternative wäre weiterhinn direkt aber über die LEDs einen Diffusor (Butterbrottüte o.ä.).

Ach ich sehe bei einem zweiten Blick gerade: Die LED-Streifen sind unten an den Holzklötzchen und haben so (zu) wenig Abstand zum Objekt und das Licht kommt damit gar nicht bis zur Mitte.

Zuerst hatte ich einen Raspi Zero 2 W und eine 5 MPixel-Kamera. Das war mickrig in der Performanz.
Nach Absprache mit Thorsten (@Tox) beim Wildbienentag in Celle habe ich den 2. Prototypen mit dem Raspi 3 und einer 8 Mpixel-Kamera gebaut. An der LED-Beleuchtung muss noch optimiert werden, so daß es keine Reflektionen gibt, aber alles gut ausgeleuchtet ist.
Der 3. Prototyp bekommt eine 12 MPixel-Kamera mit Raspi 3. Der sollte schnell genug sein, um 8000 Bilder pro Tag ( 1 MByte pro 10 sec ) über Wlan zu schicken. Aber dann muss man die ganzen Bilder irgendwie auswerten.
Genug Themen für den Workshop am 9.2. bei mir in Otterstedt. Es sind alle eingeladen, mit zu machen.

Ein erster Schritt wäre Bienen auf den Bildern zu erkennen. Dafür habe ich, wie unter Echtzeit-Objekterkennung mit YOLO beschrieben, ein Modell mit dem Open Images V7 Dataset verwendet.

# load the YOLO8 Open Images V7 medium model
model = YOLO("yolov8m-oiv7.pt")

und Testblider von https://www.naturschutzcenter.de

Die Erkennungsrate auf den ersten beiden Bildern ist gar nicht so schlecht …

f nisthilfe-fuer-mauerbienen-p100~5

… auf den hier allerdings miserabel:

 nisthilfe-fuer-mauerbienen-p100~9

Evtl. sind die Individuen im ersten “schlechten” Bild zu groß, warums beim zweiten Foto nicht funktioniert? Stört der Draht so sehr?

Nun habe ich noch nach Testbildern von Brutgängen gesucht, hier findet man sehr schön besiedelte Nisthilfen: Insekten-Nisthilfen Nutbrettchen - Wildbienenschutz im Naturgarten

Das Modell oben erkennt aber nichts oder nur (für uns) Quatsch:

Wenn wir da kein besseres Modell finden, müssten wir das vermutlich selbst trainieren. Was wäre hier interessant?

  • Brutzellen
  • Pollenzellen?
  • Trennwände?
  • Cacoxenus / Parasiten?

Cacoxeni sind Gegner der Wildbienen, s. Gegenspieler : Fliegen. Sind das nur Schmarotzer oder auch Parasiten, fressen die “nur” den Pollen in den Brutgängen oder auch die Brut?

Zur Zeit teste ich den Raspberry 3 mit dem Camera Module 3 und stelle fest, dass mit Python der Autofocus nicht funktioniert. Die rpicam-apps ergeben bessere Bilder

rpicam-still --output photo-still1.jpg

cam.take_photo(“photo-test1.jpg”)

In der Doku habe ich soeben entdeckt, dass es bei den rpicam-apps ein Postprocessing mit Bewegungs/Objekterkennung gibt. Da muss ich mich einarbeiten.

Mit diesem Setting teste ich Rpi Camera Module 3 und die rpicam-apps

rpicam-jpeg --output test.jpg

rpicam-still --post-process-file hdr.json -o test.jpg --ev -2 --denoise cdn_off

rpicam-hello --post-process-file negate.json - rpicam-jpeg --output --width 640 --height 480

test-wh

und mit dem Handy bearbeitet

Das letzte Bild ist mit dem Handy aufgenommen (Handykamera) und bearbeitet oder mit der RasPi-Cam aufgenommen und nur mit der Handy-Software bearbeitet? Es ist schon krass was die kleinen Geräte mittlerweile so können!

Mit dem Google Pixel 8a aufgenommen und mit Google Fotos verbessert.
Meine alte Nikon Spiegelreflexkamera hätte das so nicht hinbekommen, freihändig, ohne Stativ und extra Beleuchtung

Ich teste die rpicam-apps:

habe die Option hdr gefunden:

  1. ohne hdr: rpicam-still --output test-still1.jpg -t 2000

  1. mit hdr: rpicam-still --output test-still2.jpg -t 2000 --hdr auto

Das neueste Bild mit Beleuchtung

1 Like

Der 3. Prototyp mit RaspberryPi 3 und Pi Camera Module 3 (12 MPixel und Autofocus) im hohen Schutzkasten.


Die MDF-Platte mit den Brutgängen unten ist mit einer 2 mm Plexiglas-Platte abgedeckt, die zu Reflexionen führt, wenn die Beleuchtung mit zwei Neopixelstreifen unten an den Seiten sitzt.
Ausserdem werden die Brutgänge nicht ausgeleuchtet.

Deshalb habe ich einen dritten Neopixelstreifen an der Rückseite angebracht.

Das aktuellste Bild

2 Likes

Das sieht doch schon mal nach einem sehr brauchbaren Bild für Brutanalysen aus :star_struck::clap:

Nach dem heutigen Workshop wollen wir folgende Verbesserungen austesten:

Die Platte mit den Brutgängen reicht nur bis zur Frontplatte. Die Bienen müssen durch Bohrungen in die Gänge kriechen. Damit vermeidet man Lichteinfall durch Spalten, z.B. wenn sich etwas verzieht.

Es können 2 Platten mit Brutgängen über einander gelegt werden. Damit kann der Einfluss des dunklen Hohlraumes und das Licht beim Fotografieren untersucht werden. Wenn die untere Etage besser besiedelt wird, weiss man, dass in der oberen etwas nicht stimmt. Zum Fotografieren der unteren Etage nimmt man die obere Etage aus dem Kasten.

2 Platten mit Brutgängen liegen übereinander.

obere Etage mit Plexiglasplatte


ohne Plexiglasplatte

untere Etage mit Plexiglasplatte


ohne Plexiglasplatte

Das Plexiglas ist unverzichtbar, hat aber einen Einfluss auf die Bildqualität.
Ohne Kontrast in der Mitte findet der Autofocus keine Schärfe.
Der dunkle Schatten unten ist ein Fehler in der Kamera.

Zum Vergleich ein Bild vom Prototyp 2

1 Like

Ich vermute ganz stark, dass einige mit schwarzem Kugelschreiber eingebrachte Linien, um dem Autofokus auf die Sprünge zu helfen, der Besiedlung keinen Abbruch tun.
Ein noch immer riechender Edding-Strich dagegen schon.
Eine Ausschaltung des Autofokus hast Du noch nicht entdeckt?

Unser Tischlermeister hier vom IV-Süd sucht noch nach passenden Echthölzern.
Leicht zu beschaffende verleimte Buche würde sich werfen, sagt er.

Gestern Abend ist mir die Abschaltung des Autofocus gelungen.

Wenn man die Plexiglasplatten fest mit den Holzbrettchen verschraubt, stört es die Bienen und die Kamera wenig, wenn sie sich etwas verziehen. Deshalb würde ich einheimisches Holz vorziehen, am besten Laubholz.

2 Likes

Moin,
ein Todo, das wir vom Workshop am Sonntag mitgenommen haben, ist:
Wir brauchen eine Lösung um die Niströhren in Holz zu fräsen.
Wir haben uns für Vollholz entschieden. Also müssten wir die Niströhren, wie auf dem Bild von Didi unten zuerkennen, in Vollholz fräsen. Das ist 16*16 cm und wir bräuchten min 20 Stück davon.
Wir müssten nun auch festlegen, wie groß der Durchmesser der Röhren sein soll.
Hartmut und ich wollten beide mal rumfragen, wo wir das machen könnten.

Ich dachte, ich nutze auch mal die Schwarmintelligenz hier im Forum. Habt ihr Ideen dazu?

image

Eine andere Diskussion vom letzten Sonntag war: Wie kriegen wir die Messungen an Standorten hin, wo weder Strom noch W-LAN ist?
Powerbanks, Solar etc. ist zwar alles denkbar, aber nicht ausreichend getestet. Optimal gerade für das erste Jahr wäre es, wenn zumindest Strom da ist.
Für W-LAN könnten wir einen LTE Router nutzen.
Diesen hier habe ich in vergangen Projekten verwendet: Huawei E5576-320 4G LTE WLAN Modem 1500 mAh Akku – LowcostMobile

Falls man das selbst machen will, könnte eine einfache Oberfräse mit einer Führung parallel zu den zu fräsenden Röhren und einem Anschlag hinten reichen. Haha, gibt sogar einen wenig detailreichen Artikel von bauhaus.de! CNC ginge mit einem entsprechenden Fräskopf vermutlich auch. :-)

Einfacher wäre vermutlich sich das fertig zu kaufen. Die “üblichen” MDF-Brettchen gibt es gelegentlich auch in Vollholz. Was ich dazu gefunden habe:

Auch wenn wir MDF gegenüber skeptisch sind, ein totaler Ausfall wird auch das Material nicht sein, sonst würden nicht so viele Leute das als Nistbrettchen anbieten. D.h. bevor wir jetzt gar nichts habe würde ich lieber MDF verwenden!

Es gibt auch USB-LTE-Sticks, die man direkt an den RasPi anstecken kann, habe hier noch einen Huawei E3372 für ein anderes Projekt rumliegen ([edit] aber niemals und jetzt auch getestet). Eine etwas ältere Anleitung gibt es von den Kolleg:innen von HoneyPi: Internetanbindung über Surfstick – HoneyPi Könnte am Ende eine stabilere Verbindung sein, als mit einem zusätzlichen Gerät und einem WLAN dazwischen.

Ich habe inzwischen 20 Brettchen bei einem Tischler hier im Ort in Auftrag gegeben.
Falls vorhanden aus heimischer Buche. Als Muster habe ich das MDF-Brettchen mitgegeben.

Es existiert inzwischen ein 4. Prototyp mit einer Raspi Camera Modul 3 NoIR, die die besten Bilder mit normaler Beleuchtung liefert.
Die Beleuchtung mit Neopixel und IR-Scheinwerfern muss noch getestet werden.

1 Like

Voll gut Didi!
Ich denke, der Auftrag beim Tischler ist eine gute Lösung, spart unsere Ressourcen.
Für die Zukunft vielleicht noch interessant: Habe rausgefunden, dass die in der offenen Holzwerkstatt in Bremen-Walle eine CNC Fräse haben: Programm – Stadt.Teil.Raum
Weiß aber nicht genau, wie das bei denen läuft, war noch nie da.