Viele Auf­ga­ben und Use-Cases aus dem Bereich Data Sci­ence und Daten­ana­lyse kön­nen grund­sätz­lich mit zwei ver­schie­de­nen Lösungs­an­sät­zen bear­bei­tet wer­den: Regel­ba­sierte Ansätze auf der einen Seite und Maschine Learning/Deep Lear­ning Modelle auf der ande­ren Seite. Regel­ba­sierte Ansätze benö­ti­gen häu­fig deut­lich gerin­gere Men­gen an Trai­nings­da­ten und ihre Ergeb­nisse sind bes­ser vor­her­sag­bar. Machine Lear­ning basierte Ansätze sind dafür häu­fig fle­xi­bler und benö­ti­gen kein umfang­rei­ches von Hand erstell­tes Regel­set. Dafür ist aber oft ein gro­ßer Daten­satz manu­ell zu labeln bzw. zu kate­go­ri­sier­ten. Dies gilt ins­be­son­dere für Auf­ga­ben aus den Berei­chen der Bild­ana­lyse und ‑seg­men­tie­rung. Der hier vor­ge­stellte Use-Case beschäf­tigt sich mit der Frage: Wie las­sen sich Pflan­zen und ins­be­son­dere ihre Blät­ter auto­ma­tisch seg­men­tie­ren und ver­mes­sen? Diese Fra­ge­stel­lung trifft man unter ande­rem in ver­schie­de­nen Berei­chen der Pflan­zen­zucht sowie bei der Ertrags­op­ti­mie­rung von Indoor-Hydro­kul­tu­ren an. So kann zum Bei­spiel ermit­telt wer­den, wel­che kli­ma­ti­schen Bedin­gun­gen opti­mal für das Pflan­zen­wachs­tum sind.

Nied­rige Kos­ten für Kame­ra­sys­teme, Spei­cher­platz und CPU-Leis­tung ermög­li­chen seit eini­ger Zeit die Erfas­sung, Spei­che­rung und Ana­lyse gro­ßer Men­gen an Bild­da­ten. Auch die Pflan­zen­züch­tung ist ein Bereich, der von die­ser Ent­wick­lung pro­fi­tiert. Durch die sys­te­ma­ti­sche Auf­nahme von Bil­der­rei­hen kann bei­spiels­weise das Wachs­tum ver­schie­de­ner Sor­ten unter unter­schied­li­chen Kli­ma­be­din­gun­gen unter­sucht wer­den. Auf­grund der gro­ßen Menge anfal­len­der Bild­da­ten wird eine auto­ma­ti­sierte und ver­läss­li­che Bild­ana­lyse zu einem ent­schei­den­den Schritt der Datenaufbereitung.

Wer­den die Auf­nah­men unter kon­trol­lier­ten Bedin­gun­gen (ins­be­son­dere glei­che Licht­ver­hält­nisse) erstellt, las­sen sich bereits mit ein­fa­chen regel­ba­sier­ten Ana­ly­sen viele wert­volle Infor­ma­tio­nen extra­hie­ren. So lässt sich bei­spiels­weise mit einem Farb-Thres­hold die Pflanze vom Hin­ter­grund tren­nen, wor­aus sich ver­schie­dene Kenn­zah­len ablei­ten las­sen. Bei kon­stan­ter Kamera- und Auf­nah­me­geo­me­trie kann die Pflan­zen­höhe aus der Pixel­höhe abge­lei­tet wer­den und aus der Anzahl der Pflan­zen­pi­xel (zwei­di­men­sio­nal sicht­bare Pflan­zen­flä­che) kann mit­tels zuvor erstell­ten Regres­si­ons­mo­del­len die Bio­masse geschätzt werde.

Regel­ba­sierte Methoden

Tra­di­tio­nelle regel­ba­sierte Bild­ana­ly­se­me­tho­den sto­ßen aller­dings schnell an ihre Gren­zen. Ein Bei­spiel dafür ist das Zäh­len von Blät­tern in einem zwei­di­men­sio­na­len Bild. Die ein­zel­nen Blät­ter glei­chen sich typi­scher­weise in Farbe und Tex­tur stark. Wenn sie sich nun berüh­ren oder über­lap­pen, sto­ßen Algo­rith­men wie die Graph-basierte Seg­men­tie­rung schnell an ihre Gren­zen. Das glei­che gilt bei unein­heit­li­chen Licht­ver­hält­nis­sen mit Licht und Schatten.

Eine Mög­lich­keit ist nun, Regeln für die Blatt­form zu defi­nie­ren und damit die Seg­men­tie­rung zu ver­bes­sern. Wenn zum Bei­spiel eine Ader das Blatt schein­bar in zwei Hälf­ten teilt, sollte dies auf­grund der Form­vor­gabe erkannt wer­den und das Blatt im Ergeb­nis nicht in zwei Seg­mente auf­ge­teilt wer­den. Wenn also in einem ers­ten Schritt das Blatt über­seg­men­tiert wird, kann das in einem zwei­ten Schritt durch das Über­prü­fen der Form erkannt und kor­ri­giert wer­den, indem man zusam­men­ge­hö­rende Seg­mente wie­der ver­ei­nigt. Der umge­kehrte Fall einer Unter­seg­men­tie­rung kann so eben­falls erkannt und kor­ri­giert wer­den.  Dafür ist aller­dings ein zwei­ter Seg­men­tie­rungs­schritt nötig, was die Ana­lyse erschwert. Ob eine Über- oder Unter­seg­men­tie­rung zu erwar­ten ist, kann mit den Para­me­tern des Seg­men­tie­rungs­al­go­rith­mus gesteu­ert werden.

Bildanalyse in der Pflanzenzucht Abbildung1
Abbil­dung 1 Gute Resul­tate der Graph-basier­ten Segmentation

Der Regel­ba­sierte Ansatz ist äußerst anspruchs­voll. Viele Pflan­zen wei­sen kom­plexe Blatt­for­men auf. Dazu kommt, dass die Blatt­form nicht sta­tisch ist, son­dern sich zwi­schen ein­zel­nen Pflan­zen der­sel­ben Art stark unter­schei­den kann. Selbst inner­halb eines ein­zel­nen Indi­vi­du­ums ist mit einer gro­ßen Varia­bi­li­tät der Blatt­form zu rech­nen. Einer­seits ver­än­dert sich die Form und Größe eines Blat­tes wäh­rend des­sen Wachs­tums, ande­rer­seits kann die aus­ge­wach­sene Blatt­form von ver­schie­de­nen Fak­to­ren, wie dem Alter der Pflanze oder Umwelt­be­din­gun­gen, beein­flusst wer­den. Eine Blatt­form­re­gel muss also gleich­zei­tig spe­zi­fisch genug sein, dass keine fal­sche Seg­men­tie­rung vor­ge­nom­men wird, und fle­xi­bel genug, dass die natür­li­che Varia­tion berück­sich­tigt wird. Auf­grund der hohen Varia­bi­li­tät der Blatt­for­men ist eine sol­che Regel in der Pra­xis aber nur sehr schwer formulierbar.

Bildanalyse in der Pflanzenzucht Abbildung2
Abbil­dung 2 Varia­ble Licht­ver­hält­nisse und Über­lap­pun­gen füh­ren zu einer star­ken Übersegmentierung

Eine Mög­lich­keit, sol­chen Limi­ta­tio­nen zu begeg­nen, ist bei der Daten­er­fas­sung mehr oder bes­sere Sen­so­ren zu ver­wen­den. Mit spe­zi­el­len Kame­ras, soge­nann­ten Hyper­spek­tral­ka­me­ras, las­sen sich gezielt bestimmte Wel­len­län­gen ana­ly­sie­ren, oder mit Laser­scan­nern kön­nen räum­li­che Daten erfasst wer­den. Diese zusätz­li­chen Infor­ma­tio­nen kön­nen nun in das Seg­men­ta­ti­ons­mo­dell ein­flie­ßen und die Genau­ig­keit poten­zi­ell ver­bes­sern. Damit wird das Modell aber auch kom­ple­xer und weni­ger breit ein­setz­bar. Zusätz­lich sind die Kos­ten sol­cher Sen­so­ren oft ein Hindernis.

Deep Lear­ning

In den letz­ten Jah­ren hat sich Deep Lear­ning als alter­na­tive Methode der Bild­ana­lyse eta­bliert. Beim Aus­wer­ten von Pflan­zen­bil­dern wer­den dabei beson­ders Con­vo­lu­tio­nal Neu­ral Net­works (CNN) erfolg­reich ein­ge­setzt. Für das Bei­spiel der Blatt­seg­men­tie­rung hat sich dabei das Mask R‑CNN bewährt. Dabei wer­den die Objekte (Blät­ter) erkannt und deren genaue Posi­tion (Pixel­maske) angegeben.

Ein poten­zi­el­les Hin­der­nis bei der Anwen­dung ist aber das benö­tigte Trai­ning-Daten­set. Das Ana­ly­sie­ren von Pflan­zen­bil­dern ist ein rela­tiv klei­nes For­schungs­ge­biet und ent­spre­chend gibt es wenig öffent­lich ver­füg­bare Daten­sets, die zur Model­lie­rung ver­wen­det wer­den kön­nen. Das bedeu­tet oft, dass die Trai­nings­da­ten selbst erstellt wer­den müs­sen, was mit einem erheb­li­chen Auf­wand ver­bun­den sein kann. Tools wie „labelme“ kön­nen für die­sen Schritt ver­wen­det wer­den. Für das eigent­li­che Trai­ning bie­tet sich „Detectron2” an.

Gleich wie bei tra­di­tio­nel­len Seg­men­ta­ti­ons­al­go­rith­men stel­len varia­ble Licht­ver­hält­nisse eine Her­aus­for­de­rung dar und die Rän­der der Maske stim­men nicht immer exakt mit dem Objekt über­ein. Trotz­dem resul­tiert Mask R‑CNN typi­scher­weise in sehr genauer Blatt­seg­men­tie­rung. Ein­zig sehr kleine Objekte kön­nen auf­grund des Modell­de­signs nur schwer erkannt werden.

Bildanalyse in der Pflanzenzucht Abbildung3
Abbil­dung 3 Manu­ell erstelle Seg­mente für die Trainingsdaten

Fazit

Ob tra­di­tio­nelle Seg­men­tie­rungs­al­go­rith­men oder Deep Lear­ning ver­wen­det wer­den soll, hängt von den Umstän­den ab. Das Ent­wi­ckeln eines regel­ba­sier­ten Model­les, das akku­rate und ver­läss­li­che Resul­tate lie­fert, kann sich als sehr auf­wen­dig erwei­sen. Wenn dabei die Anfor­de­run­gen an die Bil­der eng defi­niert wird, ist auch der Anwen­dungs­be­reich des Model­les beschränkt, erreicht auf der ande­ren Seite aber repro­du­zier­bare Segmentierungsergebnisse.

Dem­ge­gen­über steht der Ein­satz von künst­li­cher Intel­li­genz in Form von Deep Lear­ning Model­len. Für diese wird jedoch ein umfang­rei­ches Trai­nings­da­ten­set benö­tigt. Muss die­ses selbst erstellt wer­den, ist die­ser Auf­wand gegen­über ande­ren Ansät­zen abzu­wä­gen. Sobald aber initial ein sol­ches Trai­nings­da­ten­set erstellt ist, kann man von der ste­ten Wei­ter­ent­wick­lung der Deep Lear­ning-Metho­den profitieren.